解答:
② 翻訳元言語の単語をエンコーダに入力して中間言語に変換し,デコーダで翻訳先言語の各単語を出力する.
理由: Seq2Seq(Sequence-to-Sequence)モデルは、エンコーダとデコーダの2つの主要なコンポーネントから構成されています。エンコーダは翻訳元言語のシーケンス(単語の並び)を受け取り、その情報を固定長のベクトル(コンテキストベクトル)に変換します。デコーダはこのコンテキストベクトルを用いて翻訳先言語のシーケンス(単語の並び)を生成します。このプロセスにより、Seq2Seqモデルは入力シーケンスから出力シーケンスへのマッピングを学習します。
その他の選択肢について:
- ① 言語外情報は常にノイズとして処理される。:Seq2Seqモデルは、言語外情報(例えば、文脈や外部知識)を必ずしもノイズとして処理するわけではありません。適切に設計されたモデルはこれらの情報を活用できます。
- ③ 畳み込みニューラルネットワーク(CNN)をエンコーダ,リカレントニューラルネットワーク(RNN)をデコーダとして両者を接続することはできない。:エンコーダとデコーダに異なるアーキテクチャを用いることは可能です。例えば、CNNエンコーダとRNNデコーダを組み合わせることもできます。
- ④ 機械翻訳技術の黎明期に考案された,仮想的な概念である。:Seq2Seqモデルは比較的新しい機械翻訳技術であり、実際に広く応用されています。

