说明
- 这是接前面【深度学习】基于Keras的Attention机制代码实现及剖析——Dense+Attention的后续。
参考的代码来源1:Attention mechanism Implementation for Keras.网上大部分代码都源于此,直接使用时注意Keras版本,若版本不对应,在merge处会报错,解决办法为:导入Multiply层并将merge改为Multiply()。
参考的代码来源2:Attention Model(注意力模型)思想初探,这篇也是运行了一下来源1,做对照。 - 在实验之前需要一些预备知识,如RNN、LSTM的基本结构,和Attention的大致原理,快速获得这方面知识可看RNN&Attention机制&LSTM 入门了解。
如果你对本系列感兴趣,可接以下传送门:
【深度学习】 基于Keras的Attention机制代码实现及剖析——Dense+Attention
版权声明:本文为qq_34862636原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。