5000个数据,50个epoch,batch_size=600,模型三个卷积层+三个全连接,最后一个全连接增加了kernel_regularizer,做回归问题!?目前的这个状况,我应该如何调整?求指教
2个回答
有几点供参考
1)样本量5000,用了7层的神经网络,是不是过于复杂了?样本数量要远大于神经网络中的权重的个数,才会发挥比较好的效果。建议减少网络的层数、或者节点数
2)最后一层用L1和L1L2的效果对比,建议放在一张图里,不然也看不出谁好谁坏
3)L1或者L1L2惩罚项的系数,可以调整;调大会降低过拟合
4)如果发现模型开始过拟合,可以采取early stop的方式,让模型训练提前中断
SofaSofa数据科学社区DS面试题库 DS面经
谢谢
-
curiositychen
2022-05-06 22:31
另外,我想请教一下,7层的神经网络大约要多少个样本?
-
curiositychen
2022-05-06 22:34
Data augmentation;减少可训练参数的个数(层数或filter个数,大小);dropout;减小batch size;所有层都加regularizor;GAN;VAE;loss增加一些先验约束项。
最好再描述下数据输入输出,每个数据的需求不一样。
SofaSofa数据科学社区DS面试题库 DS面经
请问您 loss增加一些先验约束项,怎么加,是重写损失函数吗?
-
curiositychen
2022-05-09 19:48
每层的regularizor就是在总loss中加入了可训练参数的l1/l2 norm。VAE相当于在loss加入了embedding code gaussian prior。总之是越多的先验约束项,越有可能收敛到合理的结果。不过先验项的选择依赖于经验和对数据的理解,甚至靠运气。
-
Zealing
2022-05-09 21:31
相关讨论
随便看看