Newton–Raphson和牛顿法区别?
看了各种资料,感觉它们好像是一回事
您确定要删除本贴么?所有相关回复也会被一并删除并且无法恢复。
吃俺一棒 2018-12-22 12:27
他们是一回事,就是叫法不同吧
Newton–Raphson方法有时候是特指一维函数的牛顿法
mrhust 2019-01-08 16:18
回答问题时需要注意什么?
我们谢绝在回答前讲“生动”的故事。 我们谢绝答非所问。 我们谢绝自己不会、硬要回答。我们谢绝“这么简单,自己想”、“书上有,自己找”这类回答;如果你认为对方提问方式或者内容不妥,可以直接忽略,不作解答,甚至投反对票。我们感激每一个用户在编写答案时的努力与付出!
相关讨论
随机平均梯度法(Stochasitc Average Gradient)和随机梯度下降(SGD)有什么区别
最速下降法与梯度下降法
Adam优化算法
对于小批量随机剃度下降法(mini-batch SGD),如何选择每批样本的数量?
nesterov’s momentum和momentum的区别?
为什么梯度的反方向是函数下降最快的方向?
用SGD时陷入局部最优解的解决方法
随机梯度下降(sgd)的收敛问题
梯度上升算法是什么?
RMSProp的直白解释
随便看看
ARIMA模型中的三个参数(p, d, q)都是什么意思?
hyperparameter与parameter的区别?
推荐开放数据库
pandas DataFrame中经常出现SettingWithCopyWarning
随机森林(random forest)和支持向量机(SVM)各有什么优劣