408 Self-Attention 2021.10.13 自己注意機構。入力文内の単語間または出力文内の単語間の関係度を計算したもの。文脈を考慮したり適切な分散表現を得ることができる。すべての計算が並列に行え、高速に処理できる。