判断题
GBDT的核心就在于,每一棵树学的是之前所有树结论和的残差,这个残差就是一个加预测值后能得真实值的累加量。
正确
判断题 Boosting,迭代,即通过迭代多棵树来共同决策。
判断题 GBDT的核心在于累加所有树的结果作为最终结果,而分类树的结果显然是没办法累加的。
单项选择题 采用决策树作为弱分类器使得GBDT模型具有哪些特性()