训练误差、测试误差、泛化误差的区别

  统计/机器学习 监督式学习 模型验证 开放问题    浏览次数:9366        分享
1

训练误差、测试误差、泛化误差这三者都是误差

我大概能明白训练误差是什么

那么测试误差、泛化误差又有什么区别

这三者又有什么联系呢


 

信春哥   2017-11-10 14:26



   2个回答 
7

我还想补充个验证误差

训练过程中的误差,就是训练误差

在验证集上进行交叉验证选择参数(调参),最终模型在验证集上的误差就是验证误差

训练完毕、调参完毕的模型,在新的测试集上的误差,就是测试误差

假如所有的数据来自一个整体,模型在这个整体上的误差,就是泛化误差。通常说来,测试误差的平均值或者说期望就是泛化误差。


综合来说,它们的大小关系为

训练误差 < 验证误差 < 测试误差 ~= 泛化误差

SofaSofa数据科学社区DS面试题库 DS面经

sasa   2017-12-07 12:53

4

训练误差是模型在训练集上的误差

测试误差是模型在测试集上的误差

泛化误差是用来衡量模型的泛化性  

SofaSofa数据科学社区DS面试题库 DS面经

MurrayLee   2017-11-12 15:42



  相关讨论

当数据量很小的时候,怎么做模型验证?

模型调参时常用到的Grid Search是什么意思?

建模时一定需要验证集或者测试集吗?

机器学习里的ppv是什么意思?

有顺序的多元分类模型应该用评判标准?

利用交叉验证调参后还需要用完整的数据集重新训练吗?

precision-recall曲线下面积有什么意义?

机器学习中lift的概念是什么?怎么用来评价模型?

logistic回归有哪些指标可以评价模型效果?

多元分类问题有没有F1?

  随便看看

为什么梯度的反方向是函数下降最快的方向?

numpy.array转换为图片并显示出来

为什么图的拉普拉斯矩阵的最小特征值一定是0?

plt.show()之后matplotlib图像依然不展示

协方差矩阵一定是半正定的吗?