Sigmoid核函数是不是对新输入的需要预测的点的测量误差不敏感?

  统计/机器学习 回归分析 开放问题    浏览次数:4065        分享
0

在SVM中,Sigmoid核函数的表达式为:

K(X_1,X_2)=tanh[a(X_1•X_2)+b]

由这个函数的特点可以发现,当b取一个较小值(比如-3),a取一个接近于0的值(比如0.1),那么需要X_1,X_2的乘积比较大才会有变化,如果把X_1作为训练点,而X_2作为需要预测的点,这是不是意味着,预测结果对X_2上微小的波动(误差引起)将不敏感,因此Sigmoid核函数具有良好的抗待预测点误差的能力?

 

CE_PAUL   2018-06-01 23:02



   1个回答 
1

应该说是因为参数a,b的设置让输出对输入的变化不敏感,并不是Sigmoid本身。b控制x_1*x_2在中间或外面,中间更敏感。a在整体上控制输出是否对输入敏感。比如a很小就让所有输出变化很小。

你可以把x_1*x_2的直方图,通过tanh函数转换,得到输出的直方图,就知道输出是否对输入敏感。

SofaSofa数据科学社区DS面试题库 DS面经

Zealing   2018-06-03 20:52

多谢多谢 - CE_PAUL   2018-06-04 15:51


  相关讨论

如何对大型线性回归进行并行计算?

y取值有上下界限的回归问题

什么是“维数灾难”,为什么说引入核函数就避免“维数灾难”

线性回归是机器学习算法吗?

有序的分类变量的预测是回归问题还是多分类问题?

泊松回归有哪些应用场景?

拟合数据的Z-score规范化怎么进行操作?

训练样本中每个维度是否独立对回归结果的影响

随机森林回归输出的结果除了采用每棵决策树的平均值,还有别的方法吗?

怎么处理真值大部分为0的回归问题

  随便看看

随机森林如何调参?

seaborn如何显示图?

对于xgboost,还有必要做很多特征工程吗?

Pandas怎样对dataframe中的一个时间列进行排序?

逻辑回归的损失函数是怎么来的