G検定模擬問題(3) 問49 解答

解答:

③学習データごとに勾配を求めて修正量を出し,逐次更新する手法である.

理由: 確率的勾配降下法(Stochastic Gradient Descent, SGD)は、全データセットではなく、学習データの各サンプルごとに勾配を計算し、その都度モデルのパラメータを更新する手法です。これにより、計算が効率的になり、学習が高速化される一方で、パラメータの更新がノイズに影響されやすくなるため、収束が安定しない場合があります。

その他の選択肢について:

  • ① 固定の関数を微分した関数に学習データを代入し,勾配を求める手法である:これは一般的な勾配降下法に近い説明ですが、確率的勾配降下法に特有の逐次更新について言及していません。
  • ② Newton法と同じ計算手法である:Newton法は勾配とヘッセ行列を使用する別の最適化手法であり、SGDとは異なります。
  • ④ ベイズの確率により勾配を求める手法である:これはSGDの説明には当てはまりません。ベイズ的手法は確率モデルのパラメータ推定に使用されます。

問題