怎么理解神经网络中的激活函数hard sigmoid?

  统计/机器学习 人工神经网络    浏览次数:9904        分享
1

怎么理解神经网络中的激活函数hard sigmoid?它和传统的sigmoid函数的区别是什么?

 

烙神经   2018-08-08 03:20



   1个回答 
7

Hard Sigmoid是简单版本(非光滑)的Sigmoid,其作用就是用三个线段来拟合整个Sigmoid函数。

表达式是分段的。

如果$x<-2.5$

$$\text{HardSigmoid}(x)=0$$

如果$-2.5\leq x\leq 2.5$

$$\text{HardSigmoid}(x)=0.2x+0.5$$

如果$x>2.5$

$$\text{HardSigmoid}(x)=1$$

从上图可以很明显地看出,hard sigmoid的非光滑性,但是同时两者又非常接近。

与sigmoid相比,hard sigmoid的好处就是计算量小了,毕竟不用求e的幂次。

SofaSofa数据科学社区DS面试题库 DS面经

okayguy   2018-08-10 10:10

谢谢,非常清楚,尤其是两个函数的曲线对比 - 烙神经   2018-08-17 06:54


  相关讨论

激活函数RELU在0点的导数是多少?

怎么理解所谓的dying relu?

LeakyReLu是什么意思?

softmin是什么激活函数?

激活函数multi-sigmoid和softmax有什么区别?

elu激活函数是什么?

激活函数leakyRELU和pRELU的区别是什么?

sigmoid, tanh, arctan这几个激活函数为什么长这么像?

如果特征都是非负的,那么用RELU作为激活函数还有意义吗?

purelin激活函数是什么?

  随便看看

训练集中有的特征含有缺失值,一般怎么处理

怎么理解推荐系统中的NDCG?

什么是K-Modes(K众数)聚类法?

概率论中的鞅是什么?

ARIMA模型中的三个参数(p, d, q)都是什么意思?