SGD with clipping是什么意思?

  统计/机器学习 数值计算    浏览次数:2318        分享
0

SGD with clipping是什么意思?sgd是随机梯度下降,不太了解with clipping这个术语。

 

桐桐酱   2019-09-08 12:02



   2个回答 
5

clipping是对梯度进行剪裁,也就是把每次计算的梯度限制在$[-d, d]$的范围内,如果计算得到的梯度大于$d$,就取$d$;如果小于$-d$,就取$-d$。$d$是自己设置的。

这样的目的主要是防止梯度爆炸。

SofaSofa数据科学社区DS面试题库 DS面经

Josh_Josh   2019-09-09 22:09

1

一般是叫做gradient clipping,就是把绝对值太大的梯度“修剪”下。

RNN如果没有gradient clipping,训练到最后得到的都是NaN了。

SofaSofa数据科学社区DS面试题库 DS面经

kym1990   2019-10-22 05:44



  相关讨论

计算中的截断误差是什么意思?

随机梯度下降(SGD)可以被并行计算吗?

怎么用牛顿法近似求解根号2?

关于随机梯度下降法(SGD)的问题

能不能用梯度下降法求平方根或者立方根?

为什么不用拉格朗日插值法来拟合一维数据?

神经网络中梯度消弥的原因是什么?

常说的低秩分解或者低秩逼近是什么意思?

RMSprop里的参数rho和decay有什么区别?

线性回归有精确的解析解为什么还要用梯度下降得到数值解?

  随便看看

keras里sparse_categorical_crossentropy和categorical_crossentropy什么不同?

怎么理解tweedie分布?

向量梯度下降优化的最佳步长?

matplotlib.pyplot做折线图的时候,显示为虚线,或者点划线?

为什么矩阵的二范数和向量的二范数的定义不同?