解答:④ ある特定のノイズを付与することなどによりアルゴリズ厶の脆弱性を突き,モデルの認識を混乱させる行為.
理由: 敵対的な攻撃(Adversarial attacks)は、モデルの予測を誤らせるために、入力データに対して微小なノイズや変更を加える行為です。このノイズや変更は人間にはほとんど認識できませんが、モデルにとっては大きな影響を与え、誤った予測を引き起こします。その他の選択肢は、敵対的な攻撃の定義には該当しません。
解答:④ ある特定のノイズを付与することなどによりアルゴリズ厶の脆弱性を突き,モデルの認識を混乱させる行為.
理由: 敵対的な攻撃(Adversarial attacks)は、モデルの予測を誤らせるために、入力データに対して微小なノイズや変更を加える行為です。このノイズや変更は人間にはほとんど認識できませんが、モデルにとっては大きな影響を与え、誤った予測を引き起こします。その他の選択肢は、敵対的な攻撃の定義には該当しません。