AIのセキュリティに関する議論は、その定義から始まる。AIのセキュリティは注目を集めており、スタートアップが次々と登場し、既存の企業もAI関連のセキュリティ機能を急いでリリースしている。しかし、AI開発が何を意味するのかまだ明確ではないため、AIのセキュリティが具体的に何を意味するのかは不明である。
AIセキュリティにはいくつかの問題カテゴリが浮上している。これらは組織内の異なる役割の関心事と一致しており、重複する部分もあるが、簡単に統合できるかどうかは不明である。問題は以下の通りである。
1. 可視性:セキュリティは常に可視性から始まり、AIアプリケーションのセキュリティも例外ではない。組織内の多くのチームがAIアプリケーションを使用し、構築している可能性がある。一部のチームは正しく行うための知識、リソース、セキュリティ意識を持っているが、他のチームはそうではないかもしれない。
2. データ漏洩防止:ChatGPTが最初に発売されたとき、多くの企業がそれをブロックしようと必死になった。従業員が機密データをチャットにコピー&ペーストして要約や面白い詩を求めたため、企業がAIによって知的財産を失うというニュースが毎週のように報じられた。
3. AIモデルの制御:エンジニアの視点から見ると、AIは指示とデータを混在させる。これにより、ユーザーがアプリケーションの指示(つまり、その振る舞い)を操作できるようになる。AIアプリケーション開発者にとって、これらの制御不能なモデルを制御しようとすることは、セキュリティ上の懸念であり、予測可能性と使いやすさの問題でもある。
4. 安全なAIアプリケーションの構築:AIにユーザーの代わりに行動させ、それらの行動を連鎖させると、未知の領域に達する。AIがその目標を達成するために行うべきことを本当に把握できるかどうかは疑問である。
AIの開発と使用が進化し続ける中で、セキュリティの風景もそれに伴って進化することが予想される。
【ニュース解説】
AIのセキュリティに関する議論は、その定義を明確にすることから始まります。AI技術が急速に発展し、社会の様々な分野での利用が進む中、AIのセキュリティは重要な話題となっています。しかし、AI開発自体がまだ進化し続けている段階にあるため、AIセキュリティが具体的に何を意味するのかは、まだはっきりとしていません。
AIセキュリティには、主に以下の4つの問題カテゴリが存在します。
1. 可視性:セキュリティの基本は可視性から始まります。組織内でAIアプリケーションを使用し、開発しているチームが多数存在する可能性があります。これらのチームが使用する技術や適用する基準は異なるため、組織は特別なチームを設けて、すべてのAIアプリケーションをインベントリし、レビューすることが重要です。
2. データ漏洩防止:ChatGPTのようなAIサービスが登場した際、企業は機密データの漏洩を防ぐために、これらのサービスの使用をブロックしようとしました。しかし、従業員が機密データをAIに入力することで、知的財産が漏洩するリスクが生じました。この問題に対処するために、企業は承認されたAIサービスの使用に関するポリシーを設定し、実施する必要があります。
3. AIモデルの制御:AIは指示とデータを混在させるため、ユーザーがアプリケーションの振る舞いを変更できるリスクがあります。AIアプリケーション開発者は、これらの制御不能なモデルをどのように制御するかが課題となります。
4. 安全なAIアプリケーションの構築:AIを利用してユーザーの代わりに行動を取る場合、AIが目標を達成するために何をするべきかを完全に理解することは困難です。これは、AIがどのように世界と相互作用するかに関する問題であり、セキュリティだけでなく、予測可能性や使いやすさにも関連します。
AIの開発と使用が進化し続ける中で、セキュリティの風景も変化していくことが予想されます。AIセキュリティに関する議論は、AI技術の発展とともに、新たな課題や解決策が生まれる可能性があります。このため、AIセキュリティは、技術者、研究者、政策立案者にとって、引き続き重要な焦点となるでしょう。
from The Challenges of AI Security Begin With Defining It.