解答:
③ReLU関数
理由: ReLU関数(Rectified Linear Unit)は、出力が0より大きければそのまま、0以下であれば0にする非線形な活性化関数です。ReLU関数は、勾配消失問題を軽減し、ニューラルネットワークの多層化を可能にする重要な役割を果たしました。シグモイド関数やソフトマックス関数はそれぞれ異なる用途で使われ、ステップ関数は勾配が存在しないため、誤差逆伝播法には適しません。
解答:
③ReLU関数
理由: ReLU関数(Rectified Linear Unit)は、出力が0より大きければそのまま、0以下であれば0にする非線形な活性化関数です。ReLU関数は、勾配消失問題を軽減し、ニューラルネットワークの多層化を可能にする重要な役割を果たしました。シグモイド関数やソフトマックス関数はそれぞれ異なる用途で使われ、ステップ関数は勾配が存在しないため、誤差逆伝播法には適しません。