イスラエル軍がガザ地区での爆撃目標を選定するために、人工知能(AI)ツール「Lavender」を使用していたことが、イスラエルの出版物+972 MagazineとLocal Callの調査により明らかになりました。このシステムは、ハマスの攻撃後に開発され、ピーク時には37,000人のパレスチナ人を疑わしい「ハマスの運動員」として特定し、彼らの暗殺を承認しました。イスラエル軍は、このような「キルリスト」の存在を否定しましたが、CNNへの声明でLavenderシステムの存在を否定せず、それを「目標識別プロセスにおけるアナリストのための単なるツール」と説明しました。アナリストは、国際法およびイスラエル国防軍の指示に定められた追加の制限に従って、識別された目標が関連する定義を満たしていることを確認するために、独立した検査を実施しなければならないと述べました。
しかし、+972とLocal Callへのインタビューで、イスラエルの情報将校は、爆撃前にLavenderの目標に対して独立した検査を実施する必要がなく、実質的には「機械の決定に対する“ゴム印”」として機能していたと述べました。Lavenderシステムは、既知のハマスおよびパレスチナ・イスラム聖戦の運動員に関する情報をデータセットに入力して構築され、ハマスと緩やかに関連する人々もトレーニングデータセットに含まれていました。このシステムは、ハマスの運動員と関連する「特徴」を識別するように訓練され、そのデータを使用して、他のパレスチナ人を初期データセットの既知のハマス運動員とどれだけ類似しているかに基づいて1〜100のスケールでランク付けしました。一定の閾値に達した人々は、ストライクの目標としてマークされました。
このシステムは90%の精度率を持っているとされていますが、ハマスの軍事部門のメンバーではないと特定された人々も約10%存在しました。誤りは統計的に扱われ、「機械が正しいかどうか確信が持てなくても、統計的には問題ないとわかっているので、それに基づいて行動する」と、Lavenderを使用したある情報源が+972に語りました。
民間人の犠牲について、情報将校は広範な裁量を与えられており、戦争の最初の数週間で、Lavenderによってターゲットとされた下級ハマス運動員1人につき15人または20人の民間人を殺害することが許可されました。高官の場合、軍は「数百」の民間人の犠牲を承認しました。また、Lavenderによって生成されたターゲットを継続的に監視し、彼らが自宅に到達するまで追跡する「Where’s Daddy?」というシステムを使用して、疑わしいハマス運動員を自宅で標的にしました。しかし、時には目標が内部にいるかどうかを確認せずに家を爆撃し、多くの民間人を巻き込んでしまうことがありました。
タハリール中東政策研究所の非常駐フェローであるモナ・シュタヤは、Lavenderシステムは、ガザ地区および西岸地区のパレスチナ人に対する監視技術の使用を拡大するイスラエルの試みの一環であると述べました。シュタヤは、これらのツールが特に問題であると指摘し、イスラエルの防衛スタートアップが、戦闘でテストされた技術を海外に輸出することを望んでいるという報告を受けています。
【ニュース解説】
イスラエル軍がガザ地区での爆撃目標を選定するために「Lavender」と呼ばれる人工知能(AI)ツールを使用していたことが、イスラエルの報道機関による調査で明らかになりました。このシステムは、ハマスの攻撃後に開発され、ピーク時には37,000人のパレスチナ人を疑わしいハマスの運動員として特定し、彼らの暗殺を承認しました。イスラエル軍は、このような「キルリスト」の存在を否定しましたが、Lavenderシステムの存在を否定せず、それを目標識別プロセスにおけるアナリストのためのツールと説明しました。しかし、実際には、情報将校はLavenderの目標に対して独立した検査を実施する必要がなく、機械の決定に対する「ゴム印」として機能していたとされます。
Lavenderシステムの構築には、既知のハマスおよびパレスチナ・イスラム聖戦の運動員に関する情報がデータセットに入力されましたが、ハマスと緩やかに関連する人々もトレーニングデータセットに含まれていました。このシステムは、ハマスの運動員と関連する特徴を識別するように訓練され、そのデータを使用して他のパレスチナ人をランク付けしました。しかし、このプロセスには約10%の誤差があり、ハマスの軍事部門のメンバーではない人々も標的とされました。
この技術の使用は、民間人の犠牲を大幅に増加させました。戦争の初期段階では、下級ハマス運動員1人につき15人から20人の民間人を殺害することが許可され、高官の場合は「数百」の民間人の犠牲が承認されました。また、疑わしいハマス運動員を自宅で標的にする「Where’s Daddy?」というシステムも使用されましたが、時には目標が内部にいるかどうかを確認せずに家を爆撃し、多くの民間人を巻き込んでしまうことがありました。
このようなAI駆動の戦争遂行は、ガザ地区および西岸地区のパレスチナ人に対する監視技術の使用を拡大するイスラエルの試みの一環と見られています。これらの技術の使用は、特にイスラエルの防衛スタートアップが戦闘でテストされた技術を海外に輸出することを望んでいるという報告を受けて、問題視されています。
この技術の使用は、戦時における民間人の保護という国際法の原則に対する重大な挑戦を示しています。また、AIによる意思決定プロセスの透明性の欠如と、誤ったターゲットの選定による無実の人々の死亡は、技術の倫理的な使用に関する重要な議論を提起します。さらに、このような技術の輸出は、他の地域や国際的な紛争においても同様の手法が採用される可能性があり、長期的には国際的な安全保障環境に影響を与える可能性があります。この事例は、AI技術の軍事利用に関する国際的な規制や監督の必要性を強調しています。
from Report: Israel used AI to identify bombing targets in Gaza.