解答:
② GRU
理由: GRU(Gated Recurrent Unit)は、LSTM(Long Short-Term Memory)における高い計算コストの削減を実現するために開発された手法です。GRUはLSTMと同様にゲート構造を持っていますが、ゲートの数が少なく、構造がシンプルなため、計算コストが低減されます。具体的には、LSTMの忘却ゲートと入力ゲートを統合して更新ゲートとし、出力ゲートを削除することで、より効率的なモデルとなっています。
その他の選択肢について:
- Adam:最適化アルゴリズムの一種であり、リカレントニューラルネットワーク(RNN)の計算コスト削減には直接関係ありません。
- LSTNet:時系列予測に特化したネットワークですが、LSTMのゲート数削減には関係ありません。
- BPTT(Backpropagation Through Time):RNNの学習アルゴリズムの一種であり、計算コスト削減には直接関係しません。

