决策树算法ID3,C4.5和CART的特点、异同?

  统计/机器学习 监督式学习    浏览次数:8465        分享
2

决策树主要的三种算法,ID3、C4.5和CART。

它们有哪些明显的异同和特点呢?

谢谢!


 

panling   2017-11-22 13:24



   3个回答 
7

ID3 :信息增益Information Gain作为特征选取指标,多叉树,特征必须离散变量。 

C4.5 :也以信息增益率作为特征选取指标,多叉树,特征也可以是连续变量。

CART: 以基尼系数gini index作为特征选取指标,二叉树,可用于分类,此外也可以用于回归。


SofaSofa数据科学社区DS面试题库 DS面经

WinJ   2017-11-24 10:51

CART是基尼系数gini index吗?难道不是gini imprurity - ljljlj   2017-12-10 07:09
gini系数是gini coefficient,index一般指的是impurity。不过不管怎么说,CART用的是gini impurity。 - 蓝色北方   2017-12-14 10:42
5

ID3奠定了决策树的理论基础,采用信息增益作为标准,但性能不好、计算消耗大,而且仅适用于分类标签,过拟合情况也严重 。

信息增益的计算中,熵仅作为减数进行加减计算,计算结果的偏差比较大 。


C4.5改进为采用增益率,性能消耗有所减小,可以适用于连续标签,但是过拟合情况还是有 。信息增益率的计算中,熵不仅作为减数进行加减计算,还作为分母,因此计算结果实质上更多考虑熵的作用,偏差相对较小。


CART进一步改进使用基尼(不纯性),应用更广,不仅可用于决策树,还可以用于回归,实践中在此基础上的优化更多。CART在python的机器学习标准包sklearn里已经被实现。


SofaSofa数据科学社区DS面试题库 DS面经

AlphaCat   2017-12-03 13:04

1

CART可以用来做回归、也可以用来做分类。但是ID3,C4.5不行。

CART必须是二叉树。ID3和C4.5可以是多叉树。


SofaSofa数据科学社区DS面试题库 DS面经

曾经是科比   2018-02-09 12:42



  相关讨论

随机森林是如何计算测试样本的概率的?

决策树怎么做增量学习或者online学习?

随机森林预测问题

Gradient tree boosting和random forest (随机森林) 有什么区别和联系

剪枝是什么意思

Adaboost里的树有没有可能权重是负数?

随机森林中增加树的数量对于偏差和方差的影响

决策树是如何得到量化的概率,不只是0或1的标签?

Extra Tree算法

怎么理解RandomForest中的max_features?

  随便看看

随机森林如何调参?

如果数据不是正态分布,能用3sigma原则剔除异常值吗?

pip install opencv-python失败,难道非要编译安装?

keras里sparse_categorical_crossentropy和categorical_crossentropy什么不同?

模型调参时常用到的Grid Search是什么意思?