最も適切な選択肢は:
④ ブースティングの1種であり、誤差関数の勾配を利用して、弱学習器を学習するアンサンブル学習手法である。
解説:
勾配ブースティング(Gradient Boosting)とは:
・ブースティング手法の一種で、誤差関数の勾配情報を用いて、逐次的に弱学習器を学習させる手法です。
・各ステップで、前回のモデルが残した誤差(残差)を修正するように、次の弱学習器をトレーニングします。
・決定木(回帰木)が弱学習器として使われることが多い。
勾配ブースティングの主なアルゴリズム:
1.Gradient Boosting Machine(GBM)
2.XGBoost(Extreme Gradient Boosting)
3.LightGBM
4.CatBoost
各選択肢の評価:
① バギングの1種であり、異なる学習データを用いて弱学習器を独立して学習するアンサンブル学習手法である。
・誤り:
・勾配ブースティングはバギング(Bagging)ではなく、ブースティング(Boosting)に分類される。
・バギングは各モデルを独立に並列実行するが、勾配ブースティングは逐次的(シーケンシャル)に学習する。
② ランダムフォレストは、勾配ブースティングの代表的な手法である。
・誤り:
・ランダムフォレストはバギング手法に基づくものであり、ブースティングとは異なる概念。
・ランダムフォレストは、複数の決定木を独立に学習させ、平均化することで精度を向上させる。
③ AdaBoostは、勾配ブースティングの代表的な手法である。
・誤り:
・AdaBoost(Adaptive Boosting)は、誤分類されたサンプルに重みを与える方式を取るが、誤差の勾配を使用するわけではない。 ・勾配ブースティングとは異なる手法。
④ ブースティングの1種であり、誤差関数の勾配を利用して、弱学習器を学習するアンサンブル学習手法である。
・正しい:
・勾配ブースティングは、損失関数の勾配に基づいて次の弱学習器を最適化するため、正しい説明。

