线性回归的目标函数是凸函数吗?怎么推导呢?
2个回答
很显然是凸函数。@cabbage 推导了如何得到目标函数。
对于线性回归,目标函数很简单,就是平方损失
假设是单变量的线性回归$y=ax+b+\epsilon$,那么损失函数
$$L=\frac{1}{n}\sum_{i=1}^n(ax_i+b-y_i)^2$$
要证明这个损失函数是关于$a,b$的凸函数,我们就只需要求二阶偏导
$$\frac{\partial L}{\partial a}=\frac{1}{n}\sum_{i=1}^n2x_i(ax_i+b-y_i)$$
$$\frac{\partial^2 L}{\partial a^2}=\frac{1}{n}\sum_{i=1}^n 2x_i^2\geq 0$$
所以$L$关于$a$的二阶导是非负的
$$\frac{\partial L}{\partial b}=\frac{1}{n}\sum_{i=1}^n2(ax_i+b-y_i)$$
$$\frac{\partial^2 L}{\partial b^2}=\frac{1}{n}\sum_{i=1}^n 2 \gt 0$$
所以$L$关于$b$的二阶导也是非负的
所以损失函数$L$是关于$a$和$b$的凸函数。
对于多变量线性回归也是一样的推导方法,可以证明是凸函数。
SofaSofa数据科学社区DS面试题库 DS面经我们用$\epsilon^{(i)}$代表误差,则预测函数可以写为
$$y^{(i)} = \theta^Tx^{(i)}+\epsilon^{(i)}$$
$$\epsilon^{(i)} = y^{(i)} -\theta^Tx^{(i)}$$
其中,我们假设误差是随机分布的,均值为0,服从高斯分布$N(0,\sigma)$,因为根据中心极限定理,服从高斯分布也是对误差项分布的合理猜想。
所以
$$P(y^{(i)}|x^{(i)}; θ) = \frac{1}{\sqrt{2\pi}\sigma}\text{exp}(- \frac{(y^{(i)}-\theta^Tx^{(i)})^2}{2\sigma^2})$$
$P(y^{(i)}|x^{(i)}; θ)$表示:在$\theta$为给定的参数的情况下,概率$y^{(i)} $以$x^{(i)} $为随机变量的概率分布,注意$\theta$不是随机变量。
由于$\epsilon^{(i)}$是独立的同分布`IID:independentlyidentically distribution`,所以以$\theta$为变量的似然函数为:
$$L(θ)=L(θ;X,Y)=p(Y|X;θ) = \prod_{i=1}^{m}\frac{1}{\sqrt{2\pi}\sigma}\text{exp}(- \frac{(y^{(i)}-\theta^Tx^{(i)})^2}{2\sigma^2})$$
对 $L(θ) $取对数有:
$$l(\theta)=\log L(\theta) = \log\prod_{i=1}^{m}\frac{1}{\sqrt{2\pi}\sigma}\text{exp}(- \frac{(y^{(i)}-\theta^Tx^{(i)})^2}{2\sigma^2})$$
$$= m\log\frac{1}{\sqrt{2\pi}\sigma} - \frac1{2\sigma^2}\sum_{i=1}^{m}(y^{(i)}-\theta^Tx^{(i)})^2$$
最大化$l(\theta)$即是最小化$\frac1{2\sigma^2}\sum_{i=1}^{m}(y^{(i)}-\theta^Tx^{(i)})^2$,这样就是`loss function`
SofaSofa数据科学社区DS面试题库 DS面经