XGB比GBDT好主要就是因为增加了regularization,防止过拟合。
这个regularization是怎么加上去的?对LASSO或者Ridge,我们知道可以加在回归系数上面。但是决策树又没有系数之类的,这个regularization是怎么加的?加在哪儿的?
谢谢各位!
1个回答
xgboost的目标函数是损失函数+惩罚项。从下面的式子可以看出,树越复杂,惩罚越重。
树的复杂度定义如下。
叶节点的数量和叶节点的得分越高,树就越复杂。
『叶节点的数量』容易理解,请问『叶节点的得分越高』为什么会导致树就越复杂呢?
-
dzzxjl
2018-03-08 14:49
估计得需要看那篇论文了。感觉第一项是叶结点总数的话,第二项就是叶结点的加权后的总数。
-
kykix
2018-03-09 00:03