「AIセキュリティ」はここ数年、徐々に注目を集めてきたキーワードとなっています。
AIを利用したサービスを提供する事業にとって、今後避けては通れない課題となります。
そのAIへのセキュリティ攻撃のなかで、「ポイズニング攻撃」というものがあります。
「ポイズニング攻撃」とは、AIモデルの学習データに意図的に不正確または有害なデータを混入させることにより、AIモデルの性能や出力を操作する攻撃手法です。
この手法は、主に機械学習をはじめとしたAIモデルを標的としていて、モデルの判断基準や予測能力を歪めることを目的としています。
この手法により、例えば画像認識AIに対しては、特定の物体を誤って認識させるよう細工された画像を学習データに混ぜ込むことがあります。
これにより、AIは正常な画像でも誤った判断をするようになる可能性があるのです。
この攻撃の特徴として、攻撃の検出が困難であることが挙げられます。
通常の学習データと見分けがつきにくく、モデルの開発者や運用者が気付かないうちに、攻撃が成功してしまう可能性があります。
このリスクに対処するために、データの品質管理、モデルの定期的な監査、攻撃検出技術の開発など、多層的な防御策が必要となっていきます。
AIシステムの開発者や運用者は、常にデータポイズニングの脅威を意識して、セキュリティ対策を講じる必要があるのです。