G検定模擬問題(3) 問34 解答

解答:

②文章を双方向から学習する.

理由: BERT(Bidirectional Encoder Representations from Transformers)は、双方向から文章を学習することができるモデルです。これにより、文脈の前後関係を考慮した深い意味理解が可能になります。他の選択肢については以下の通りです:

① モデルが比較的軽量なため計算コストが小さい:BERTは実際には比較的重いモデルで、計算コストが大きいです。

③ ラベルが付与されたデータセットにのみ適用できる:BERTは事前学習にラベルのないデータセットを使用し、その後ファインチューニングにラベル付きデータセットを使用します。

④ 文章中の接続詞が処理できない:BERTは接続詞を含むあらゆる単語を処理する能力があります。

問題