以下の説明に当てはまる活性化関数として,最も適切な選択肢を1つ選べ.
多層ニューラルネットワークの学習における勾配消失問題とは,出力層から誤差を伝播する過程で勾配が減衰してしまい,入力層に近い層の重み成分の学習が進まなくなってしまう現象である.この勾配消失問題に対しては,関数への入力値が0以下の場合には出力値が0となり,入力値が0より大きい場合には,出力値として入力値と同じ値となる活性化関数を適用することが有効であると言われている.
① ソフトマックス関数
② ReLU関数
③ ステップ関数
④ シグモイド関数

