検定模擬問題(3) 問124 解答

解答:

④ 活性化関数は基本的に微分可能であるものを選ぶ必要がある.

理由: ニューラルネットワークの学習には誤差逆伝播法(バックプロパゲーション)が使用されますが、この手法では重みの更新のために活性化関数の微分が必要です。したがって、活性化関数は基本的に微分可能であるものを選ぶ必要があります。

その他の選択肢について:

  • ① ReLU関数は勾配消失が起こりやすいので,現在はあまり使用されない。:ReLU(Rectified Linear Unit)関数は、勾配消失問題を軽減するためによく使用されており、現在でも広く使用されています。
  • ② tanh関数は,0から1までの数字を出力として表現できる活性化関数である。:tanh(双曲線正接)関数は、-1から1までの値を出力します。
  • ③ シグモイド関数は,-1から1までの数字を出力として表現できる活性化関数である。:シグモイド関数は、0から1までの値を出力します。

問題