/home/xs010557/digital-madoguchi.site/public_html/test/wp-content/themes/zox-news/amp-single.php on line 77

Warning: Trying to access array offset on value of type bool in /home/xs010557/digital-madoguchi.site/public_html/test/wp-content/themes/zox-news/amp-single.php on line 77
" width="36" height="36">

AI(人工知能)ニュース

イスラエル軍、AI「魔法の粉」でハマス標的特定か?ビデオが疑問提起

イスラエルのユニット8200がAIと機械学習を用いてガザのハマス標的を特定する「魔法の粉」技術を使用していることが明らかに。この発言は、IDFがAIを使ったテロリスト特定システムを否定していた声明と矛盾。技術はテロリストネットワーク内の未知の標的を見つけ出し、軍事作戦の効率を向上させるが、倫理的問題や誤用のリスクも。【用語解説とAIによる専門的コメントつき】

Published

on

昨年、イスラエルのサイバー情報機関であるユニット8200の高官が、ガザのハマス標的を特定するために機械学習「魔法の粉」を使用していると語ったビデオが表面化しました。この映像は、イスラエル国防軍(IDF)が人工知能(AI)を使用してテロリストを特定したり、個人がテロリストかどうかを予測するシステムを使用していないという最近の声明の正確性に疑問を投げかけています。

ビデオでは、ユニット8200のデータサイエンスとAIの責任者である「ヨアブ大佐」と名乗る人物が、2021年5月のガザ攻勢で機械学習技術を使用して「新たなテロリストを見つける」ためのツールの一例を紹介しました。「我々はいくつかのテロリストがグループを形成していることを知っており、そのうちのいくつかしか知らないとしましょう。我々のデータサイエンスの魔法の粉を使うことで、残りを見つけることができます」と彼は述べました。

この技術の説明は、IDFの内部者6人がハマスに対する攻撃中に「ラベンダー」と呼ばれるAIツールの使用について証言した内容と類似しています。彼らは、AI生成のデータベースがガザの爆撃キャンペーンに関与する情報将校を支援し、数万の潜在的な人間の標的を特定するのに使用されたと述べました。

IDFは、いくつかのアカウントが「根拠のないもの」であると反論しましたが、ヨアブの発言は昨年2月にテルアビブ大学で開催されたAIカンファレンスでの彼の発言と一致しています。このビデオは大学のYouTubeチャンネルで公開されており、最近まで視聴回数は100回未満でした。

IDFは、ヨアブ大佐のカンファレンスへの参加が軍によって承認されたとコメントしましたが、彼の発言がIDFの最近のAI使用に関する否定と矛盾しないと述べました。IDFは、そのAIシステムが攻撃のための標的を「選択しない」という、元の声明では使用されなかった微妙な言い回しをガーディアンに伝えました。

情報将校6人の証言では、ラベンダーツールが前例のない規模と速度で潜在的な標的を特定するのに使用されたと述べられていますが、IDFが攻撃のための標的を自動的に選択するシステムを使用しているとは非難されていません。

【ニュース解説】

昨年、イスラエルのサイバー情報機関であるユニット8200の高官が、ガザ地区のハマス標的を特定するために機械学習技術を用いた「魔法の粉」と表現した手法について語ったビデオが公開されました。この発言は、イスラエル国防軍(IDF)が人工知能(AI)を使用してテロリストを特定するシステムを用いていないとする以前の声明と矛盾するものであり、その正確性に疑問を投げかけています。

この技術は、既知のテロリストの情報から出発し、彼らの関連するネットワーク内で未知のテロリストを特定するために使用されました。このプロセスには、「ポジティブ未ラベル学習」と呼ばれる機械学習の一形態が用いられ、関連する特徴を計算し、結果をランク付けして閾値を定めることで、新たな標的を特定します。

この手法の使用は、IDFがガザでの軍事作戦中に「ラベンダー」というAIツールを用いて数万の潜在的な人間の標的を特定したとする内部者の証言と一致しています。これらの証言によると、このシステムは人間の監督のもとで機能し、最終的な攻撃の承認は「肉と血の人間」によって行われますが、一部の情報将校は人間としての付加価値がほとんどなく、承認プロセスが極めて迅速に行われたと述べています。

この技術の使用は、軍事および情報活動におけるAIの役割が拡大していることを示しています。AIによる迅速なデータ分析は、軍事作戦の効率を大幅に向上させる可能性がありますが、誤ったターゲットの特定や民間人への影響など、倫理的な問題や誤用のリスクも伴います。

また、このような技術の使用は、国際法や軍事作戦における規制に新たな課題をもたらす可能性があります。AIによる意思決定プロセスの透明性や、最終的な攻撃の承認における人間の役割の明確化が求められるでしょう。

将来的には、この技術の進化が軍事作戦だけでなく、テロリズム対策や犯罪防止など、さまざまな分野での応用が期待されます。しかし、そのためには、技術の倫理的な使用を確保し、誤用を防ぐための厳格な規制と監視体制の構築が不可欠です。

from IDF colonel discusses ‘data science magic powder’ for locating terrorists.

Trending

モバイルバージョンを終了