线性回归梯度下降函数微分推导疑惑

  统计/机器学习 回归分析 损失函数    浏览次数:863        分享
0

机器学习新人在看Andrew ng的讲义中有这样一个举例,没理解从第一步到第二步是怎么得到的,求各位讲解。即为什么会在微分的前面有一个(h(x) - y)? 2 * 1/2我是理解的,但多出一个(h(x) - y)是咋理解的呢?


 

frank_zh   2019-11-13 15:55



    还没有回答。我来答!  


  相关讨论

最小二乘回归和线性回归

huber loss是什么?什么时候用?

泊松回归(poission regression)的损失函数是什么?

python里有没有huber loss的线性回归

LR中若标签为+1和-1,损失函数如何推导,求大佬解答

用SGD计算逻辑回归时的迭代公式是什么?

逻辑回归的损失函数是怎么来的

focal loss是什么?

hinge loss的公式是什么?

向量梯度下降优化的最佳步长?

  随便看看

随机森林如何调参?

为什么梯度的反方向是函数下降最快的方向?

如何度量一个分布长尾的程度?

pandas.DataFrame的index重新排列(从0开始)

机器学习算法的鲁棒性是什么意思?