如果特征都是非负的,那么用RELU作为激活函数还有意义吗?

  统计/机器学习 人工神经网络    浏览次数:6235        分享
0

在用神经网络训练的时候,如果训练集里的特征的数值都是非负的,那么用RELU作为激活函数还有意义吗?

是不是和没有激活函数的效果一样的?

 

一棵海草   2018-08-03 22:21



   2个回答 
5

激活函数的输入是$x^Tw$,$w$是网络参数,可正可负;$x$是输入,全为正。明显$x^Tw$的范围是实数,ReLU肯定有用。


SofaSofa数据科学社区DS面试题库 DS面经

Zealing   2018-08-04 10:08

3

当然不是,relu的输入时特征和参数相乘,参数矩阵一般给到随机值作为初始,所以输入是正是负不可知,但肯定有正有负;就算特征全正,参数一开始给全1矩阵,也会在梯度下降过程调参也有可能把参数调参成负值来拟合模型;只有在非常特殊的情况下,relu表现和无激活函数一样;这种情况也许都不一定要使用高级神经网络

SofaSofa数据科学社区DS面试题库 DS面经

ausar109   2018-08-09 05:24



  相关讨论

elu激活函数是什么?

激活函数RELU在0点的导数是多少?

激活函数multi-sigmoid和softmax有什么区别?

purelin激活函数是什么?

LeakyReLu是什么意思?

怎么理解神经网络中的激活函数hard sigmoid?

激活函数leakyRELU和pRELU的区别是什么?

softmin是什么激活函数?

怎么理解所谓的dying relu?

sigmoid, tanh, arctan这几个激活函数为什么长这么像?

  随便看看

推荐系统算法里的cold start是什么意思?

特征归一化对K Means有影响吗?

dropout rate一般设置多大?

怎么让DataFrame按照某一列绝对值从小到按排列?

deep learning中的pooling是什么意思?