AIによる画像認識において,認識させる画像の中に人間には知覚できないノイズや微小な変化を含めることによって,AIアルゴリズムの特性を悪用し,誤認識させる攻撃はどれか。
- Adaptively Chosen Message攻撃
- Adversarial Examples攻撃
- Distributed Reflection Denial of Service攻撃
- Model Inversion攻撃
解答
イ
解説
Adversarial Examples(敵対的サンプル)とは、AIモデルを誤認識させるために、画像などの入力データにわずかな変更を加えたものです。人間にはほとんど違いが分からないレベルの変更でも、AIモデルにとっては大きな誤認識を引き起こす可能性があります。
Adversarial Examples攻撃は、AIモデルの脆弱性を突く攻撃手法の一つであり、自動運転、医療画像診断、顔認証など、様々な分野で悪用される可能性があります。
- Adaptively Chosen Message攻撃
Adaptively Chosen Message攻撃(適応的選択メッセージ攻撃)は、暗号理論における攻撃手法の一つです。 - Adversarial Examples攻撃
正しいです。
Adversarial Examples攻撃の説明です。 - Distributed Reflection Denial of Service攻撃
Distributed Reflection Denial of Service(DrDoS)攻撃は、インターネット上に存在する複数のサーバーを悪用し、標的となるサーバーに大量のトラフィックを送り込むDDoS攻撃の一種です。 - Model Inversion攻撃
Model Inversion攻撃(モデル反転攻撃)は、機械学習モデルの学習データの一部を復元しようとする攻撃手法です。
参考情報
分野・分類
| 分野 | テクノロジ系 |
| 大分類 | 技術要素 |
| 中分類 | セキュリティ |
| 小分類 | 情報セキュリティ |
出題歴
- SC 令和6年度秋期 問2
- SC 令和3年度秋期 問1