イスラエルはAIシステム「Lavender」を使用してハマスの潜在的なターゲットを特定し、戦争戦略に取り入れています。このシステムの使用により、統計的なメカニズムに基づく判断が兵士の判断よりも信頼されており、戦争の初期段階で多数のパレスチナ市民が犠牲になることが許容されました。
このAIシステムの使用は、法的・倫理的な問題を引き起こし、軍事関係者と機械の関係に変化をもたらしています。特に、低位のハマスメンバーを標的にする戦略は、民間人の犠牲を許容し、家族の家を爆撃することを容易にしています。初期段階で、一人のハマスメンバーを標的にするために15人から20人の民間人の死を許可していたとされます。
この戦略により、パレスチナの死者数が増加した可能性があります。AIによる判断でハマスとの関連性があるとされたパレスチナ人の家を爆撃することで、民間人の死者数が増え、過去6ヶ月間で3万2千人のパレスチナ人が死亡したとパレスチナの保健省は報告しています。
一部の軍事関係者はこの戦略に疑問を抱いており、戦争が終わった後のガザでの生活や、戦略による多くのパレスチナ人の死に対する痛みや復讐心について考えています。
ニュース解説
イスラエル軍がガザ地区での戦争において、AI(人工知能)システム「Lavender」を使用してハマスの潜在的なターゲットを特定し、攻撃を行っていたことが明らかになりました。このシステムは、ハマスやパレスチナ・イスラム聖戦(PIJ)のメンバーとされる人物を迅速に識別するために、大量のデータを処理しています。報告によると、戦争の初期段階で、Lavenderは37,000人のパレスチナ人男性をハマスまたはPIJと関連付けていました。
この技術の使用は、軍事作戦における人間と機械の関係を変え、法的および倫理的な多くの問題を提起しています。特に、低位のハマスメンバーを攻撃する際に、民間人の犠牲をある程度許容するという戦略が採用されました。この戦略により、家族の家を爆撃することが容易になり、初期段階で、一人のハマスメンバーを標的にするために15人から20人の民間人の死を許可していたとされます。
このような戦略の結果、パレスチナ側の死者数が大幅に増加しました。過去6ヶ月間で32,000人のパレスチナ人が死亡したと報告されており、この高い死者数は、AIを用いてハマスと関連付けられた人々の家を爆撃する戦略によるものと考えられます。
この戦略に関わった一部の軍事関係者は、戦争が終わった後のガザでの生活や、戦略による多くのパレスチナ人の死に対する痛みや復讐心について疑問を抱いています。彼らは、戦争の終結後にどのようにしてガザでの生活を再建するか、また、このような戦略が将来的にどのような影響をもたらすかについて考えています。
この事例は、AI技術が軍事作戦においてどのように利用されているか、そしてその利用がどのような法的・倫理的問題を引き起こす可能性があるかを示しています。また、戦争における民間人の保護という国際法の原則との関係についても、重要な議論を提起しています。将来的には、このような技術の使用に関するより厳格な規制や、民間人の保護をより重視した戦略の開発が求められるでしょう。
from ‘The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets.