最小描述长度和香农熵有什么关系?

  统计/机器学习 描述性统计 损失函数    浏览次数:3343        分享
0

最小描述长度和香农熵有什么关系?感觉都是以2为底取log

 

hnh100   2019-03-08 07:49



    还没有回答。我来答!  


  相关讨论

cross entropy是什么意思?

Gini指数、Gini系数、Gini不纯是一回事吗?

离散随机变量的熵满足的不等式如何证明?

softmax模型和最大熵模型是否是一回事?

python里怎么计算一个数组的熵(entropy)?

求问:Cart分类树为什么是基尼指数最小化准则

决策树的熵是什么?怎么用熵来选分叉?

pytorch 的交叉熵损失总是报错,同样的结构改成MSELoss就没有问题

为什么决策树中用熵而不是基尼不纯度来作为划分依据?

keras里sparse_categorical_crossentropy和categorical_crossentropy什么不同?

  随便看看

二维numpy.array转为一维的numpy.array或者list

python pandas里有没有类似R的summary的函数?

随机梯度下降(sgd)的收敛问题

Resnet-18, Resnet-50, Resnet-101这些模型里的数字是什么意思?

为什么过拟合不好?