判断题
gbdt 是通过采用加法模型(即基函数的线性组合),以及不断减小训练过程产生的残差来达到将数据分类或者回归的算法。
正确
判断题 GBDT的核心就在于,每一棵树学的是之前所有树结论和的残差,这个残差就是一个加预测值后能得真实值的累加量。
判断题 Boosting,迭代,即通过迭代多棵树来共同决策。
判断题 GBDT的核心在于累加所有树的结果作为最终结果,而分类树的结果显然是没办法累加的。