adaboost和gradient boost不同的地方在于,adaboost不需要求梯度。那么adaboost模型为什么还会有learning rate?
非常困惑,谢谢解答!
1个回答
adaboost没有用到梯度下降,adaboost中的learning rate也不是步长,这里的学习率只是指的每个树的权重的衰减速度。adaboost会逐一产生很多随机的决策树,每棵树的权重不同,learning rate就是权重衰减的速率。
sklearn文档的官方说法是
learning_rate : float, optional (default=1.)
Learning rate shrinks the contribution of each classifier by learning_rate.