解答:
② 量子化
理由: 量子化(Quantization)は、ディープラーニングにおいて重みや勾配パラメータを表現するビット数を制限することで、モデルの高速化や軽量化を図る手法です。通常は32ビット浮動小数点数で表現されるパラメータを、8ビット整数や16ビット浮動小数点数などの低精度の形式に変換することで、計算速度を向上させ、メモリ使用量を削減することができます。
その他の選択肢について:
- 正則化(Regularization):モデルの過学習を防ぐための手法で、L1正則化やL2正則化などが含まれます。
- 蒸留(Distillation):大規模なモデルの知識を小規模なモデルに転移させる手法です。
- プルーニング(Pruning):重みが小さい部分の接続を削除することでモデルを軽量化する手法です。

