解答:
② ELMo
理由: ELMo(Embeddings from Language Models)は、2層のLSTMをベースにした言語モデルであり、文脈に応じた動的な単語表現を提供します。ELMoは、単語の埋め込みを文脈に応じて調整することで、高い精度の自然言語処理タスクを実現します。
その他の選択肢について:
- ① BERT:BERT(Bidirectional Encoder Representations from Transformers)は、Transformerアーキテクチャを使用しており、双方向から文脈を捉えるモデルです。
- ③ GPT:GPT(Generative Pre-trained Transformer)は、Transformerアーキテクチャを使用しており、文の生成に強みがあります。
- ④ fastText:fastTextは、Facebookが開発した軽量で高速な単語埋め込みモデルであり、文脈に依存しない単語表現を提供します。

