请问深度学习算法中的梯度消失的原理是什么?如何能通俗理解,我看到RNN和循环神经网络中总是涉及梯度消失
您确定要删除本贴么?所有相关回复也会被一并删除并且无法恢复。
飞时过 2021-09-22 13:50
梯度消失就是当x自某一点至无穷时,曲线平缓(导数几乎为0)
wh21118310 2021-10-06 16:30
回答问题时需要注意什么?
我们谢绝在回答前讲“生动”的故事。 我们谢绝答非所问。 我们谢绝自己不会、硬要回答。我们谢绝“这么简单,自己想”、“书上有,自己找”这类回答;如果你认为对方提问方式或者内容不妥,可以直接忽略,不作解答,甚至投反对票。我们感激每一个用户在编写答案时的努力与付出!
相关讨论
吴恩达深度学习第一课第四周作业L层结果收敛在0.64的问题
关于神经网络的性能
wide-deep模型里的wide和deep分别是指什么意思?
神经网络中的Dropout和Bagging
反向传播和梯度算法概念???反向传播是指反向传播算法,还是反向传播算法中的一个过程?
深度学习模型的“蒸馏”是什么意思?
训练神经网络中经常提到的epoch是什么意思
CNN和RNN分别是怎么共享权重的?
epoch和batch之间有什么关系?
为什么小数据不适合神经网络模型?
随便看看
鞍点的数学定义是什么?
分类特征的目标编码是什么意思?
怎么理解图像识别里的dice系数?
为什么图的拉普拉斯矩阵的最小特征值一定是0?
如何度量一个分布长尾的程度?