最近の報告によると、ITリーダーの97%がAIとMLOpsのセキュリティを確保することが不可欠であると認識しているが、必要な資金を確保できると自信を持っているのは61%に過ぎない。77%のITリーダーがAI関連の侵害を経験しているにもかかわらず、既存のAI開発において敵対的攻撃に対する手動防御を展開しているのは30%だけであり、14%がそのような攻撃に対する計画とテストを行っている。
敵対的AIは、AIと機械学習(ML)システムを意図的に誤解させ、設計された用途に役立たなくすることを目的としている。敵対的AI攻撃には、アルゴリズムの脆弱性を悪用する攻撃、国家によるモデルデータの逆工学やモデルの武器化、生成AIモデルのフィルターや制限を標的とする攻撃などが含まれる。また、MLOpsとソフトウェアサプライチェーン攻撃は、AIシステムの構築と展開に依存するフレームワーク、ネットワーク、プラットフォームを狙ったものである。
敵対的AI攻撃に対抗する方法として、組織のDNAの一部としてレッドチーミングとリスク評価を行う、防御フレームワークを最新の状態に保ち適用する、生体認証モダリティとパスワードレス認証技術を統合する、ランダムかつ頻繁にアクセス権限を現在のものに保つための監査検証システムなどが挙げられる。
【ニュース解説】
最近の報告によると、ITリーダーの97%がAI(人工知能)とMLOps(機械学習オペレーション)のセキュリティを確保することが非常に重要であると考えています。しかし、必要な資金を確保できると自信を持っているのは61%に過ぎません。さらに、77%のITリーダーがAI関連の侵害を経験しているにもかかわらず、既存のAI開発において敵対的攻撃に対する手動防御を展開しているのは30%だけであり、14%がそのような攻撃に対する計画とテストを行っています。
敵対的AIとは、AIと機械学習システムを意図的に誤解させ、設計された用途に役立たなくすることを目的としています。このような攻撃には、アルゴリズムの脆弱性を悪用する攻撃、国家によるモデルデータの逆工学やモデルの武器化、生成AIモデルのフィルターや制限を標的とする攻撃などが含まれます。また、MLOpsとソフトウェアサプライチェーン攻撃は、AIシステムの構築と展開に依存するフレームワーク、ネットワーク、プラットフォームを狙ったものです。
敵対的AI攻撃に対抗する方法として、組織のDNAの一部としてレッドチーミングとリスク評価を行うこと、防御フレームワークを最新の状態に保ち適用すること、生体認証モダリティとパスワードレス認証技術を統合すること、ランダムかつ頻繁にアクセス権限を現在のものに保つための監査検証システムなどが挙げられます。
この報告は、AIとMLOpsのセキュリティが今後ますます重要になることを示しています。AI技術の進化に伴い、敵対的AI攻撃もより高度かつ複雑になっています。そのため、組織はAIシステムを保護するために、常に警戒を怠らず、最新のセキュリティ対策を講じる必要があります。また、AI技術の安全な使用と発展を確保するためには、政府や業界団体による規制やガイドラインの整備も重要です。このような取り組みを通じて、AIのポジティブな側面を最大限に活用しつつ、潜在的なリスクを最小限に抑えることが求められます。
from Why adversarial AI is the cyber threat no one sees coming.