画像認識における敵対的な攻撃(Adversarial attacks)の説明として,最も適切な選択肢を1つ選べ.
① 間違えたラベル/タグ付けがされた画像を,意図的に学習させる行為.
② ジェネレータがディスクリミネータを騙そうとする行為.
③ 認識しようとしているものとは全く異なる種類の画像を学習させる行為.
④ ある特定のノイズを付与することなどによりアルゴリズ厶の脆弱性を突き,モデルの認識を混乱させる行為.
画像認識における敵対的な攻撃(Adversarial attacks)の説明として,最も適切な選択肢を1つ選べ.
① 間違えたラベル/タグ付けがされた画像を,意図的に学習させる行為.
② ジェネレータがディスクリミネータを騙そうとする行為.
③ 認識しようとしているものとは全く異なる種類の画像を学習させる行為.
④ ある特定のノイズを付与することなどによりアルゴリズ厶の脆弱性を突き,モデルの認識を混乱させる行為.