2020
10-08
10-08
Keras 中Leaky ReLU等高级激活函数的用法
在用Keras来实现CNN等一系列网络时,我们经常用ReLU作为激活函数,一般写法如下:fromkerasimportlayersfromkerasimportmodelsmodel=models.Sequential()model.add(layers.Conv2D(32,(3,3),activation='relu',input_shape=(28,28,1)))model.add(layers.MaxPooling2D((2,2)))model.add(layers.Conv2D(64,(3,3),activation='relu'))model.add(layers.MaxPooling2D((2,2)))model.add(layers.Conv2D(64,(3,3),...
继续阅读 >