注意力机制(基于seq2seq RNN)详解

  • 内容
  • 评论
  • 相关

本节提出了注意力(Attention)机制,这是神经网络翻译的最新解决方案。

注意力的思想是 2015 年在论文“Neural Machine Translation by Jointly Learning to Align and Translate”(Dzmitry Bahdanau,Kyunghyun Cho和Yoshua Bengio,ICLR,2015)中提出的,它需要在编码器和解码器 RNN 之间增加额外的连接。事实上,仅将解码器与编码器的最新层连接会存在信息瓶颈,而且不一定能够传递先前编码器层的信息。

下图说明了采用注意力机制的方法:

引入注意力模型的NMT示例
图 1 引入注意力模型的NMT示例

本文标题:注意力机制(基于seq2seq RNN)详解

本文地址:http://www.hosteonscn.com/4261.html

评论

0条评论

发表评论

邮箱地址不会被公开。 必填项已用*标注