例如将GBDT中的弱分类器换成LR?
3个回答
对线性回归boost并没有意义,因为叠加多个线性回归最后还是线性回归
比如第一个线性回归$a_1x+b_1$
第二个线性回归$a_2x+b_2$
将这两个相加,得到的是
$(a_1+a_2)x+(b_1+b_2)$,依然是个线性回归
线性回归是有解析解的,一旦求出一个线性回归,那一定是最优的,叠加也没有意义
这个和xgb中的弱分类器LR是一个意思,其实本质上没有被boost,只是被迭代求解而已。
可以参考我之前问过的问题:xgboost的gblinear是什么意思?