解答:
② ReLU関数
理由: ReLU(Rectified Linear Unit)関数は、入力値が0以下の場合には出力値が0となり、入力値が0より大きい場合には出力値として入力値と同じ値を返します。この性質により、勾配消失問題を軽減し、深いニューラルネットワークの学習を効果的に行うことができます。
その他の選択肢について:
- ① ソフトマックス関数:これは多クラス分類問題で出力層に使用される関数で、出力の確率分布を計算するためのものであり、勾配消失問題の対策には直接関係ありません。
- ③ ステップ関数:これは閾値を超えた場合に1、そうでない場合に0を返す関数で、ニューラルネットワークの学習には一般的に使用されません。
- ④ シグモイド関数:これは出力が0から1の間に収まる関数で、深いネットワークでは勾配消失問題を引き起こしやすいことが知られています。

