KeyError: 'LeakyRelu' 解决方法

用keras封装bp模型之后,调用的时候报错,查看日志发现

KeyError: 'LeakyRelu'

网上查找了原因可能是keras版本的原因 https://github.com/keras-team/keras/issues/2272

于是按照这里给出的实现方法,直接写出LeakyRelu激活函数,然后再次封装就可以了。代码和网页里有些不一样,实测没问题。

def lrelu(features, alpha=0.2, name="lrelu"):
    with tf.variable_scope(name):
        f1 = 0.5 * (1 + alpha)
        f2 = 0.5 * (1 - alpha)
        return f1 * features + f2 * tf.abs(features)

 


版权声明:本文为root_clive原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。