検定模擬問題(3) 問131 解答

解答:

② ReLU関数

理由: ReLU(Rectified Linear Unit)関数は、入力値が0以下の場合には出力値が0となり、入力値が0より大きい場合には出力値として入力値と同じ値を返します。この性質により、勾配消失問題を軽減し、深いニューラルネットワークの学習を効果的に行うことができます。

その他の選択肢について:

  • ① ソフトマックス関数:これは多クラス分類問題で出力層に使用される関数で、出力の確率分布を計算するためのものであり、勾配消失問題の対策には直接関係ありません。
  • ③ ステップ関数:これは閾値を超えた場合に1、そうでない場合に0を返す関数で、ニューラルネットワークの学習には一般的に使用されません。
  • ④ シグモイド関数:これは出力が0から1の間に収まる関数で、深いネットワークでは勾配消失問題を引き起こしやすいことが知られています。

問題