cross entropy是什么意思?

  统计/机器学习 监督式学习 损失函数    浏览次数:5371        分享
1

cross entropy是什么意思?


 

ggg818   2017-11-27 11:13



   1个回答 
3

entropy是用于表示二元分类器的误差,而cross entropy则用于表示多元分类器的误差。

对于一个用$n$的测试样本的$k$元分类器,那么cross entropy的计算公式如下:

$$CrossEntropy=-\frac{1}{n}\sum_{i=1}^n \sum_{j=1}^ky_{i,j}\log p_{i,j}$$

比如一个三元分类问题,有两个测试样本,第一个样本:

预测出来的概率为$(0.5, 0.3, 0.2)$,实际标签为$2$,写成one-hot的形式是$(0,1,0)$;

第二个样本:

预测出来概率为$(0.6, 0.1, 0.3)$,实际标签为$1$,one-hot的形式为$(1, 0, 0)$

那么cross-entropy为

$$-\frac{1}{2}(1\times \log(0.3)+ 1\times\log(0.6))$$


SofaSofa数据科学社区DS面试题库 DS面经

abuu   2017-12-13 10:36



  相关讨论

Gini指数、Gini系数、Gini不纯是一回事吗?

最小描述长度和香农熵有什么关系?

离散随机变量的熵满足的不等式如何证明?

softmax模型和最大熵模型是否是一回事?

决策树的熵是什么?怎么用熵来选分叉?

python里怎么计算一个数组的熵(entropy)?

求问:Cart分类树为什么是基尼指数最小化准则

pytorch 的交叉熵损失总是报错,同样的结构改成MSELoss就没有问题

为什么决策树中用熵而不是基尼不纯度来作为划分依据?

keras里sparse_categorical_crossentropy和categorical_crossentropy什么不同?

  随便看看

怎么理解推荐系统中的NDCG?

柯西分布没有数学期望

huber loss是什么?什么时候用?

Resnet-18, Resnet-50, Resnet-101这些模型里的数字是什么意思?

随机森林如何调参?