决策树是如何得到量化的概率,不只是0或1的标签?

  统计/机器学习 监督式学习    浏览次数:10811        分享
4

决策树是如何得到量化的概率,不只是0或1的标签?


 

CatalanFubini   2017-12-04 13:05



   2个回答 
8

举个例子好了,你要判断今天有没有下过雨。你观测了过去32天的两项特征:一、能不能看到太阳,二、地上有没有水。于是你就把这32天的数据做成了如下的决策树。

假如今天能看得到太阳,那么根据上面的决策树,今天下雨的概率为1/(1+9)=0.1

假如今天不能看到太阳,但是地上有水,那么预测今天下过雨的概率为18/(18+2)=0.9

假如今天不能看到太阳,地上也没有水,那么预测今天下过雨的概率为0/(0+2)=0.0

所以决策树预测出来的概率就是对应子节点里下雨天的比率。


SofaSofa数据科学社区DS面试题库 DS面经

sasa   2017-12-09 14:05

谢谢!你的图解释得清楚。乍一看,“天上有没有太阳”有点奇怪,意思应该是“能不能看到太阳”吧 - CatalanFubini   2017-12-15 16:06
2

其实预测出的分类也是根据数值概率来的。

比如一个叶节点里有3个阳性样本,2个阴性样本,那么这个叶节点预测出来的概率就是0.6。因为0.6 > 0.5,所以预测出来的标签是阳性。


SofaSofa数据科学社区DS面试题库 DS面经

wlk1993   2017-12-05 15:25



  相关讨论

决策树算法ID3,C4.5和CART的特点、异同?

Adaboost里的树有没有可能权重是负数?

怎么理解RandomForest中的max_features?

决策树可以做多元分类吗?

lightgbm使用自定义损失函数后,二分类的预测结果不再是【0,1】区间

决策树的深度和数据特征个数的关系

Gradient tree boosting和random forest (随机森林) 有什么区别和联系

关于knn算法中kd树的问题

请问针对Adaboost、GBDT等集成学习同一个特征是否可以入模多次?

剪枝是什么意思

  随便看看

wide-deep模型里的wide和deep分别是指什么意思?

怎么利用permutation importance来解释xgboost模型的特征?

PCA降维之前为什么要先标准化?

VGG16和VGG19的区别?

plt.show()之后matplotlib图像依然不展示