5000个数据,50个epoch,batch_size=600,模型三个卷积层+三个全连接,最后一个全连接增加了kernel_regularizer,做回归问题!?目前的这个状况,我应该如何调整?求指教
2个回答
有几点供参考
1)样本量5000,用了7层的神经网络,是不是过于复杂了?样本数量要远大于神经网络中的权重的个数,才会发挥比较好的效果。建议减少网络的层数、或者节点数
2)最后一层用L1和L1L2的效果对比,建议放在一张图里,不然也看不出谁好谁坏
3)L1或者L1L2惩罚项的系数,可以调整;调大会降低过拟合
4)如果发现模型开始过拟合,可以采取early stop的方式,让模型训练提前中断
SofaSofa数据科学社区DS面试题库 DS面经
				谢谢
				- 
             curiositychen
           
				
          
          2022-05-06 22:31
			
				另外,我想请教一下,7层的神经网络大约要多少个样本?
				- 
             curiositychen
           
				
          
          2022-05-06 22:34
			
Data augmentation;减少可训练参数的个数(层数或filter个数,大小);dropout;减小batch size;所有层都加regularizor;GAN;VAE;loss增加一些先验约束项。
最好再描述下数据输入输出,每个数据的需求不一样。
SofaSofa数据科学社区DS面试题库 DS面经
				请问您 loss增加一些先验约束项,怎么加,是重写损失函数吗?
				- 
             curiositychen
           
				
          
          2022-05-09 19:48
			
				每层的regularizor就是在总loss中加入了可训练参数的l1/l2 norm。VAE相当于在loss加入了embedding code gaussian prior。总之是越多的先验约束项,越有可能收敛到合理的结果。不过先验项的选择依赖于经验和对数据的理解,甚至靠运气。
				- 
             Zealing
           
				
          
          2022-05-09 21:31
			
  相关讨论
  随便看看