解答:
③ 誤差逆伝播法の問題を回避するには、適切な活性化関数を選ぶ必要がある。
理由: 誤差逆伝播法(Backpropagation)は、ニューラルネットワークの学習アルゴリズムの一つであり、出力層から入力層へと誤差を伝播させて重みを更新します。この過程で、勾配消失問題が発生することがあります。勾配消失問題は、特に深いニューラルネットワークにおいて、誤差が伝播する過程で勾配が非常に小さくなり、初期層の重みが更新されにくくなる問題です。この問題を回避するためには、適切な活性化関数を選ぶことが重要です。例えば、ReLU(Rectified Linear Unit)などの活性化関数が勾配消失問題の軽減に役立ちます。
その他の選択肢について:
- ① 誤差逆伝播法は、複数回の積分操作によって実現される。:誤差逆伝播法は積分操作ではなく、微分操作によって実現されます。
- ② 誤差逆伝播法で、誤差を出力層から入力層へフィードバックさせるときに勾配が小さくなりすぎる問題は過学習と呼ばれる。:この問題は過学習ではなく、勾配消失問題と呼ばれます。過学習は、モデルが訓練データに過度に適合し、新しいデータに対して一般化性能が低下する問題です。
- ④ 勾配消失問題を回避するため、ディープニューラルネットワークをより深くするのが有効である。:これは逆です。勾配消失問題は、ネットワークが深くなると発生しやすくなるため、深くすることはこの問題の解決にはならず、むしろ悪化させる可能性があります。

