在SVM中,Sigmoid核函数的表达式为:
K(X_1,X_2)=tanh[a(X_1•X_2)+b]
由这个函数的特点可以发现,当b取一个较小值(比如-3),a取一个接近于0的值(比如0.1),那么需要X_1,X_2的乘积比较大才会有变化,如果把X_1作为训练点,而X_2作为需要预测的点,这是不是意味着,预测结果对X_2上微小的波动(误差引起)将不敏感,因此Sigmoid核函数具有良好的抗待预测点误差的能力?
1个回答
应该说是因为参数a,b的设置让输出对输入的变化不敏感,并不是Sigmoid本身。b控制x_1*x_2在中间或外面,中间更敏感。a在整体上控制输出是否对输入敏感。比如a很小就让所有输出变化很小。
你可以把x_1*x_2的直方图,通过tanh函数转换,得到输出的直方图,就知道输出是否对输入敏感。
SofaSofa数据科学社区DS面试题库 DS面经
多谢多谢
-
CE_PAUL
2018-06-04 15:51