以下の文章を読み,空欄に最もよく当てはまる選択肢を1つ選べ.
ニューラルネットワークの活性化関数としてシグモイド関数が使われていたが、ジクモイド関数の微分の最大 値が0.25 で あるため,学習時に伝播する誤差が小さくなる.そのため,逆伝播で層を遡るたびにその値が小さくな る.この現象は( )と 呼ばれ,ニューラルネットワークを深層化する上で大きな妨げとなった.
①勾配降下
②誤差逆伝播
③勾配消失問題
④未学習
以下の文章を読み,空欄に最もよく当てはまる選択肢を1つ選べ.
ニューラルネットワークの活性化関数としてシグモイド関数が使われていたが、ジクモイド関数の微分の最大 値が0.25 で あるため,学習時に伝播する誤差が小さくなる.そのため,逆伝播で層を遡るたびにその値が小さくな る.この現象は( )と 呼ばれ,ニューラルネットワークを深層化する上で大きな妨げとなった.
①勾配降下
②誤差逆伝播
③勾配消失問題
④未学習