本人比较笨,不大能够理解RMSProp算法。
我基本明白sgd。
求大神用直白语言解释一下RMSProp。谢谢!
1个回答
1.RMSProp是AdaGrad算法的改进。鉴于神经网络都是非凸条件下的,RMSProp在非凸条件下结果更好,改变梯度累积为指数衰减的移动平均以丢弃遥远的过去历史。
2.经验上,RMSProp被证明有效且实用的深度学习网络优化算法。
与AdaGrad相比,RMSProp增加了一个衰减系数来控制历史信息的获取多少。
所以我建议题主先看一下adagrad的算法实现
SofaSofa数据科学社区DS面试题库 DS面经