1 Attention和Self-Attention的区别

Attention:以Encoder-Decoder框架为例,输入Source和输出Target内容是不一样的,比如对于英-中机器翻译来说,Source是英文句子,Target是对应的翻译出的中文句子,Attention发生在Target的元素Query和Source中的所有元素之间。

Self-AttentionSelf-Attention机制Attention机制的区别在于,Attention主要是指Target与Source的之间的相关性,而Self-Attention指的是Source内部元素之间或者Target内部元素之间的Attention,也可以理解为Target=Source这种特殊情况下的Attention,而不是Target和Source之间的Attention。

两者具体的计算过程基本上是一样的,但是计算对象发生了变化。

Attention机制可参考下图

Attention和Self-Attention的区别-StubbornHuang Blog

Self-Attention机制可参考下图

Attention和Self-Attention的区别-StubbornHuang Blog

参考