解答:
② パンダの画像に少量の雑音を付加することでテナガザルと認識した.
理由: 敵対的な攻撃(Adversarial attacks)は、機械学習モデルに対して微小なノイズや変更を加えることで、モデルの誤認識を引き起こす攻撃です。パンダの画像に少量の雑音を付加してテナガザルと誤認識させる例は、典型的な敵対的攻撃の例です。これにより、モデルの脆弱性を突いて誤った結果を出させることができます。
その他の選択肢について:
- ① フェイクニュースの真贋判定を行うシステムを構築した。:これは敵対的攻撃に関するものではありません。
- ③ 認識精度を上げるために左右反転した画像を入力した。:これはデータ拡張の手法であり、敵対的攻撃とは関係ありません。
- ④ 関連する話題のハッシュタグを持つツイートを自動収集するシステムを制作した。:これはデータ収集に関するもので、敵対的攻撃とは関係ありません。

