ニューラルネットワークの過学習を回避するための手法の1つである早期終了の説明として,最も適切な選択肢を1つ 選べ.
①中間層における活性化関数としてReLU関数やLeaky ReLU関数を用いる.
② 教師データを学習する際に,ランダムに選択されたニューロンを除外する.
③ミニバッチごとに教師データに対して正規化を行う.
④学習途中でエポックごとに検証データに対する誤差を評価し,検証損失が一定回数運続して改善しなかった場合に学習を止める.
G検定模擬問題(4) 問88
ニューラルネットワークの過学習を回避するための手法の1つである早期終了の説明として,最も適切な選択肢を1つ 選べ.
①中間層における活性化関数としてReLU関数やLeaky ReLU関数を用いる.
② 教師データを学習する際に,ランダムに選択されたニューロンを除外する.
③ミニバッチごとに教師データに対して正規化を行う.
④学習途中でエポックごとに検証データに対する誤差を評価し,検証損失が一定回数運続して改善しなかった場合に学習を止める.