/home/xs010557/digital-madoguchi.site/public_html/test/wp-content/themes/zox-news/amp-single.php on line 77

Warning: Trying to access array offset on value of type bool in /home/xs010557/digital-madoguchi.site/public_html/test/wp-content/themes/zox-news/amp-single.php on line 77
" width="36" height="36">

AI(人工知能)ニュース

国防省、AIの責任ある使用に向け共通言語と文化の構築を目指す

AIの責任ある使用を推進する国防省は、AIリテラシー向上、多様な専門家チームの設立、信頼性確保のためのガイドライン開発を重視。公正性、バイアス最小化、トレーサビリティ、テストの重要性を強調し、戦略的目標達成に向けたガバナンス強化を目指す。【用語解説とAIによる専門的コメントつき】

Published

on

国防省はAIの責任ある使用に向けて、共通の文化と言語の確立が必要としています。AIリテラシーの向上と信頼できる組織との連携により、戦略的目標に合致したガバナンスの開発が求められています。AIのライフサイクル全体にわたる倫理的実践のガイドラインが必要とされています。

AIモデルの公正性とバイアスの最小化には、多様な専門家チームの設立とトレーニングが推奨されています。モデルのトレーニングデータに反映されるバイアスの監査や、AIモデルの予期しない影響の評価にデザイン思考フレームワークの使用が重要です。

AIのトレーサビリティと信頼性を確保するためには、技術や開発プロセスへの理解、メタデータの管理、ユーザーへの明確な情報提供が必要です。AIモデルのパフォーマンスを人間と比較して示すことも重要とされています。

AIの信頼性とテストにおいては、AIの能力が明確な用途を持ち、その安全性やセキュリティがテストされるべきです。多様な視点の導入や定期的な監査が推奨されています。

AIのガバナンスと運用では、AIモデルへの投資が継続的な成果をもたらすようリソースの割り当て、リスクの評価と軽減のためのフレームワーク作成、責任あるガバナンスの実施、AIシステムの監視ツールの活用、メタデータの管理、サイバーセキュリティ対策の展開が重要であるとされています。

ニュース解説

人工知能(AI)の進化は、社会に多大な影響を及ぼしており、特に国家安全保障の分野ではその変化が顕著です。米国防総省(DoD)は、AIを軍事的な競争優位を築くために利用するとともに、人間中心のAI導入と運用の俊敏性を高めることを目的として、2019年にJoint Artificial Intelligence Center(JAIC)を設立しました。これは後にChief Digital and Artificial Intelligence Office(CDAO)へと発展しました。しかし、AIをスケールアップし、採用し、その全潜能を実現するための障壁は、民間セクターと同様に存在します。IBMの調査によると、成功したAI導入を妨げる主な障壁には、AIスキルと専門知識の不足、データの複雑さ、倫理的な懸念があります。さらに、IBM Institute of Business Valueによると、経営幹部の79%がAI倫理を企業全体のAIアプローチにおいて重要と考えているにもかかわらず、AI倫理の共通原則を実践に移しているのは25%未満に過ぎません。

AIモデルの出力に対する信頼を獲得するためには、社会技術的な課題に対して社会技術的な解決策が必要です。防衛リーダーがAIの責任ある管理を実現するためには、まず共通の語彙、つまり安全で責任あるAIの使用を導く共通の文化に合意する必要があります。その後、リスクを軽減する技術的な解決策とガードレールを実装します。DoDは、AIリテラシーを向上させ、信頼できる組織と協力して、戦略的目標と価値観に合致したガバナンスを開発することで、この基盤を築くことができます。

AIリテラシーは、組織の効率を向上させるためにAIを展開する方法を知ることだけでなく、AIのリスクと制限を深く理解し、適切なセキュリティ対策と倫理ガードレールを実装する方法を知ることも同様に重要です。これはDoDや他の政府機関にとって必須の条件です。AI学習パスをカスタマイズすることで、必要なトレーニングを特定し、職員が特定の役割に必要な知識を得ることができます。組織全体のAIリテラシーは、職員が迅速に評価し、説明し、ディスインフォメーションやディープフェイクなどの迅速に拡散し危険な脅威に対応するために不可欠です。

IBMは、組織内でAIリテラシーをカスタマイズされた方法で適用しており、必要なリテラシーは人の立場によって異なります。戦略的目標のサポートと価値観との整合性において、IBMは信頼できる人工知能のリーダーとして、クライアント組織の価値観に合わせたAIの責任ある使用を導くガバナンスフレームワークの開発において経験を持っています。また、IBMは自社内でのAI使用に関するフレームワークも持っており、顔認識技術の使用などの政策立場に影響を与えています。

AIツールは現在、国家安全保障に利用され、データ漏洩やサイバー攻撃からの保護に役立っています。しかし、AIはDoDの他の戦略的目標をサポートするためにも利用されています。AIは労働力を増強し、より効果的にすることができ、スキルの再習得を支援することができます。また、戦闘、人道支援、平和維持、災害救助の役割で兵士、水兵、空軍兵、海兵隊員を支援するための強靭なサプライチェーンを作成するのにも役立ちます。

CDAOは、責任あるAIツールキットの一部として、責任ある、公平な、追跡可能な、信頼できる、統治可能なという5つの倫理原則を含んでいます。これらの原則は、米軍の既存の倫理フレームワークに基づいており、軍の価値観に根ざしており、責任あるAIへのコミットメントを支持するのに役立ちます。これらの原則を実現するためには、モデルとそれを取り巻くガバナンスシステムの機能的および非機能的要件を考慮することによって、意識的な努力が必要です。

from Operationalizing responsible AI principles for defense.

Trending

モバイルバージョンを終了