有了解swish激活函数的吗?公式是什么?
您确定要删除本贴么?所有相关回复也会被一并删除并且无法恢复。
双鸭熊仔 2019-11-19 10:16
$f(x)=x\cdot\text{sigmoid}(x)$
Swish是ReLU的良好替代:
1)Swish可导
2)小于0时并非始终等于0
3)非单调
Lydia 2019-11-21 13:32
f(x) = x*sigmoid(βx) . β为常数或者可训练的参数
zlsama 2019-11-19 17:36
回答问题时需要注意什么?
我们谢绝在回答前讲“生动”的故事。 我们谢绝答非所问。 我们谢绝自己不会、硬要回答。我们谢绝“这么简单,自己想”、“书上有,自己找”这类回答;如果你认为对方提问方式或者内容不妥,可以直接忽略,不作解答,甚至投反对票。我们感激每一个用户在编写答案时的努力与付出!
相关讨论
神经网络里每层的激活函数必须是一样的吗?
人工神经网络有哪些常用的激活函数?
多项式网络(polynomial networks)的结构和激活函数?
如果y的范围是-1到1之间,网络输出层的激活函数应该是tanh还是linear?
如果特征都是非负的,那么用RELU作为激活函数还有意义吗?
LeakyReLu是什么意思?
elu激活函数是什么?
怎么理解所谓的dying relu?
softmin是什么激活函数?
sigmoid, tanh, arctan这几个激活函数为什么长这么像?
随便看看
神经网络中的dense和sparse是什么意思?
python产生服从常用概率分布的随机数
keras里sparse_categorical_crossentropy和categorical_crossentropy什么不同?
pandas把一列日期转换为星期
怎么理解tweedie分布?