在keras中怎么增加一个Leaky relu激活函数的隐藏层?
2个回答
比如这样
model = Sequential()
model.add(Dense(512, 512, activation='linear'))
model.add(LeakyReLU(alpha=.001))
需要from keras.layers import LeakyReLU
-
abuu
2019-07-22 01:03