Keras中LeakyReLU等高级激活函数怎么用-创新互联
创新互联www.cdcxhl.cn八线动态BGP香港云服务器提供商,新人活动买多久送多久,划算不套路!
成都创新互联公司专业为企业提供下陆网站建设、下陆做网站、下陆网站设计、下陆网站制作等企业网站建设、网页设计与制作、下陆企业网站模板建站服务,10多年下陆做网站经验,不只是建网站,更提供有价值的思路和整体网络服务。这篇文章主要介绍Keras中Leaky ReLU等高级激活函数怎么用,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!
在用Keras来实现CNN等一系列网络时,我们经常用ReLU作为激活函数,一般写法如下:
from keras import layers from keras import models model = models.Sequential() model.add(layers.Conv2D(32, (3, 3), activation='relu', input_shape=(28, 28, 1))) model.add(layers.MaxPooling2D((2, 2))) model.add(layers.Conv2D(64, (3, 3), activation='relu')) model.add(layers.MaxPooling2D((2, 2))) model.add(layers.Conv2D(64, (3, 3), activation='relu'))
当前文章:Keras中LeakyReLU等高级激活函数怎么用-创新互联
文章网址:http://azwzsj.com/article/dshhoi.html