G検定模擬問題(4) 問117 解答

最も不適切な選択肢は:
④ AdaBoost

解説:
勾配降下法(Gradient Descent)とは:
・勾配降下法は、モデルの損失関数を最小化するために、パラメータを徐々に更新するアルゴリズムです。
・勾配降下法には様々な最適化アルゴリズムが存在し、それぞれ学習率の調整や収束速度を改善するための工夫が施されています。

各選択肢の評価:
① Adam(Adaptive Moment Estimation):
・適切:
Adamは、勾配降下法を改良した最適化アルゴリズムであり、学習率をパラメータごとに適応的に調整します。
② AdaGrad(Adaptive Gradient):
・適切:
AdaGradは、頻繁に更新されるパラメータの学習率を減少させることで効率的な学習を実現する最適化アルゴリズムです。
③ SGD(Stochastic Gradient Descent):
・適切:
SGDは、ランダムに選択したデータサンプルを使用して勾配を計算するシンプルな勾配降下法の一種です。
④ AdaBoost(Adaptive Boosting):
・不適切:
AdaBoostはアンサンブル学習手法の一つであり、弱学習器を組み合わせて強力なモデルを構築する方法です。最適化アルゴリズムではありません。

問題