最も適切な選択肢は:
④ ネットワークの層数をより深くすることが求められていた.
解説:
ResNet(Residual Network)の背景:
・ディープラーニングの進展により、ネットワークの層を深くすることでモデルの表現力が向上し、より複雑なタスクに対応できる ようになることが分かっていました。
・しかし、層を深くしすぎると、勾配消失問題や勾配爆発問題が発生し、モデルの学習が困難になるという課題がありました。
・さらに、層を深くしても、学習が進まない、あるいは性能が劣化する「デgradation問題」も指摘されていました。
ResNetの目的:
・ResNetは、残差学習(Residual Learning)を導入することで、層が深くなることによる学習の難しさを解決しました。 ・残差ブロックにより、ネットワークが「恒等写像」を学習しやすくなり、層を深くしても性能が向上することが可能になりました。
・このアプローチにより、非常に深いネットワーク(100層以上)でも学習が成功するようになりました。
他の選択肢の評価:
① ネットワークの層数をより浅くすることが求められていた.
・誤りです。
層を浅くするのではなく、層を深くしても学習が可能な構造を求めていたのが背景です。
② 畳み込み層を削除することが求められていた.
・誤りです。
ResNetでは畳み込み層がそのまま利用されており、削除することが目的ではありません。
③ より容易に実装できることが求められている.
・誤りです。
実装の容易さはResNetの主な目標ではなく、深い層を効率的に学習できる構造を目指していました。 ④ ネットワークの層数をより深くすることが求められていた.
・正しいです。
ResNetは、層を深くしても学習可能なネットワーク構造を追求した結果、提案されました。

