为什么随机森林比决策树更robust?

  统计/机器学习 监督式学习 模型验证    浏览次数:5036        分享
0

随机森林是很多决策树组成的,那为什么比决策树更robust呢?就是因为树多?那么越多越robust吗?

 

Solomon   2019-04-10 11:39



   1个回答 
3

我的理解是:随机森林在训练每棵子树时,通过随机采样和随机抽特征的方式生成训练数据,避免生成太相似的树。差异性大的多课子树构成的随机森林,相当于增强了模型的多样性,也就导致其有较强的robust。所以关键点就是“随机”。


SofaSofa数据科学社区DS面试题库 DS面经

咸魚   2019-04-10 18:27

随机森林怎么避免生成太相似的树,有惩罚么 - 塔利班   2019-04-11 09:20
没有惩罚。样本抽样和特征抽样,不一样的样本和特征去训练子树 - 咸魚   2019-04-11 10:47
嗯,所以说总体上还是能生成N个结构不同的树,但是全靠随机 - 塔利班   2019-04-11 10:51
嗯,我的理解是这样的 - 咸魚   2019-04-11 10:56


  相关讨论

随机森林如何调参?

怎么理解随机森林的oob error?

关于knn算法中kd树的问题

决策树可以做多元分类吗?

Adaboost里的树有没有可能权重是负数?

决策树是如何得到量化的概率,不只是0或1的标签?

随机森林中增加树的数量对于偏差和方差的影响

剪枝是什么意思

Extra Tree算法

决策树怎么做增量学习或者online学习?

  随便看看

样本权重大小不同时,用什么分类算法比较合适?

单一变量下的异常检测该怎么做?

多重检验中的FDR(false discovery rate, 错误发现率)是什么?

统计里的IQR是什么意思?

怎么对pandas dataframe做转置?