正しい選択肢は:
➂ Source-Target Attention
解説:
Source-Target Attention(またはEncoder-Decoder Attention)は、入力側(Source)と出力側(Target)の系列データ間の関係性を表 現するために用いられるAttentionメカニズムです。これは主に、翻訳や系列データ間の変換タスクで使用されるAttentionの一種です。
特徴:
・Source: 入力系列(例: 文の単語)。
・Target: 出力系列(例: 翻訳結果の単語)。
・入力系列の各時点が、出力系列の各時点にどの程度寄与しているかを示す重みを計算します。
このアプローチは、特にEncoder-Decoder構造を持つモデル(例: TransformerやSeq2Seq)で重要な役割を果たします。

