Transformerの説明として,最も不適切な選択肢を1つ選べ.
① BERTは双方向Transformer モデルとして知られ、その事前学習に特徴がある.中でも,Next Sentence Prediction (NSP)は,2文が 渡され,連続した文かどうか判定するタスクとして有名である.
② 画像処理分野へのTransformer の応用として、畳み込みニューラルネットワーク(CNN)を使わない新たな事前学習モデルである Vision Transformerが提案された.
③学習済み畳み込みニューラルネットワーク(CNN)では,重みフィルターを可視化することで、画像のどこに注目して最終的な予 測をしているのかを確認できたが,Vision Transformerでは,これができない.
④ TransformerはAttentionとFeed Forward Networkを使用したモデルであり、従来のRNN/LSTMを使用したモデルに比べて並列計算による高速化が可能になるなど利点が多い.
G検定模擬問題(4) 問86

