关于神经网络的性能

  统计/机器学习 深度学习 人工神经网络    浏览次数:3950        分享
0

最近再看周志华的《机器学习》,其中神经网络一章提到,原文我记不清了,大意是说:数学上已经证明:只要你深度足够深,参数挑的足够合适,一个神经网络是可以拟合出任意可能的判决形式的;


本人菜鸡,深度学习做得比较少,想问问深度学习大神们怎么看这句话。

 

tianjiayang0711   2018-08-24 20:40



   1个回答 
2

你说的应该是Universal approximation theorem的引申。

Universal approximation theorem是说对于一个前馈神经网络,哪怕只有一个隐藏层,它也能无限逼近任何有界连续函数。

SofaSofa数据科学社区DS面试题库 DS面经

strong.man   2018-08-24 20:44

谢谢老哥 - tianjiayang0711   2018-08-25 02:17


  相关讨论

为什么小数据不适合神经网络模型?

深度学习模型的“蒸馏”是什么意思?

epoch和batch之间有什么关系?

神经网络中的gradient check是什么意思?

BatchNormalization这一层一般有哪些参数需要调?

训练神经网络中经常提到的epoch是什么意思

前馈神经网络如何选择隐藏层的数量

神经网络里为什么隐藏层越多越好?

CNN和RNN分别是怎么共享权重的?

请问深度学习算法中的梯度消失的原理是什么?如何能通俗理解

  随便看看

推荐开放数据库

为什么梯度的反方向是函数下降最快的方向?

xgboost怎么调参?

pandas报错: 'DataFrame' object has no attribute 'unique'

怎么按照设定概率产生不重复的随机排序?