我又两个问题:1、在线性支持向量机中,优化函数是正则项和损失项的和,其中为什么正则项不包含截距项呢。2、对每个特征做中心化处理之后可以将截距项直接去除,这是为什么呢。求大佬解答~
1个回答
第一个问题可以参考一下Lasso和岭回归的正则项包含截距(常数项)吗?
第二个问题:所有的最小二乘回归方程都会经过$(\bar x, \bar y)$这一个点,如果你对所有的自变量以及y进行中心化,也就是说自变量的均值$\bar x=0$,因变量的均值$\bar y=0$。一个线(或者超平面)要经过$(0,0)$这个点,那么截距一定是0。
SofaSofa数据科学社区DS面试题库 DS面经
谢谢!第二个问题可能有点问题吧,最小二乘法只是在线性回归中,存在解析解,中心化之后是去掉截距的。但是线性支持向量机优化不是用的梯度下降法吗,损失函数为合页损失函数,这个解和中心化有关系吗?
-
pickle23
2020-06-25 00:53
@matt 回答的是最小二乘,你问的svm,应该是他看错了
-
robin_he
2020-06-25 01:01