解答:
①バッチ学習
理由: バッチ学習は、訓練データ全体を使用して一度にモデルを更新する手法であり、過学習を防ぐための手法とは言えません。むしろ、ミニバッチ学習やオンライン学習といった手法の方が、モデルの汎化性能を高めるために用いられることが多いです。
一方、ドロップアウト、正則化、早期終了はすべて過学習を防ぐための有効な手法です。
解答:
①バッチ学習
理由: バッチ学習は、訓練データ全体を使用して一度にモデルを更新する手法であり、過学習を防ぐための手法とは言えません。むしろ、ミニバッチ学習やオンライン学習といった手法の方が、モデルの汎化性能を高めるために用いられることが多いです。
一方、ドロップアウト、正則化、早期終了はすべて過学習を防ぐための有効な手法です。