正しい選択肢は: ③ 勾配消失問題
解説:
勾配消失問題(Vanishing Gradient Problem)は、深いニューラルネットワークを学習する際に発生する問題で、特に活性化関数として シグモイド関数やハイパボリックタンジェント(tanh)関数が使われた場合に顕著です。
・原因:
・シグモイド関数の微分値は最大でも0.25であり、層を遡るたびに誤差が小さくなる(勾配が消失する)。
・その結果、ニューラルネットワークの前半部分(入力層に近い層)の学習が進みにくくなります。
・影響:
・深いネットワークの学習が難しくなり、性能が制限される。
他の選択肢の説明:
①勾配降下
モデルの学習アルゴリズムの一種で、損失関数を最小化する方向に重みを更新する方法です。問題の現象を指すものではありません。
②誤差逆伝播
ニューラルネットワークの学習における手法で、誤差を出力層から入力層に伝播させ、重みを更新します。これ自体は問題ではありません。 ④未学習
モデルが十分に学習されていない状態を指しますが、勾配消失問題とは直接関係がありません。

