2023年末にIBM® Institute for Business Value(IBV)が実施した調査によると、政府のリーダーは一般市民の信頼を過大評価しているとの結果が出ました。この調査は、米国、カナダ、英国、オーストラリア、日本を含む9つの国で13,000人以上の成人を対象に行われ、人工知能(AI)などの新技術に対する一般市民の慎重な姿勢と、生成型AIの政府による採用に対する支持が明らかになりました。調査の目的は、企業や政府が生成型AIを使用する際の期待と意図、仕事や個人の生活での技術の使用についての理解を深めることでした。
IBM watsonx™は、公平性、プライバシー、説明可能性、透明性、堅牢性の5つの基本的な柱を具体化した統合されたAI、データ、ガバナンスプラットフォームです。このプラットフォームは、AI開発において責任あるアプローチを提供し、公共セクターのチームがAI活動を指示、管理、監視するのを支援します。AIモデルの出力情報の透明性を促進し、組織がAIポリシーや業界基準に対応するためのリスクを予防的に検出・軽減するプロセスを容易にします。公共セクターがAIと自動化を受け入れるにあたり、信頼性と透明性の維持が重要であり、政府はAIの全ライフサイクルを効果的に理解し管理する必要があります。責任あるAIの実践は、政府がAIを善用するために透明性を持ってリードする機会とされています。
ニュース解説
IBM® Institute for Business Value(IBV)が実施した調査によると、多くの市民は政府のリーダーが市民の信頼を過大評価していると感じており、特にCOVID-19パンデミック以降、政府への信頼が低下していることが明らかになりました。しかし、同時に市民は生成型AIの政府による採用には肯定的であり、特に顧客サービス、税務・法務アドバイザリーサービス、教育目的での利用に賛成しています。この調査は、AIに対する理解を持つ13,000人以上の成人を対象に、9カ国で行われました。
IBM watsonx™は、AIの信頼性を確保するための5つの基本的な柱を備えたプラットフォームであり、公平性、プライバシー、説明可能性、透明性、堅牢性を提供します。IBM watsonx.governance™は、AIモデルがどのように情報を出力しているかについての透明性を高めるツールであり、政府がAIを責任ある方法で実装する際の支援を提供します。これにより、政府はAIポリシーや業界基準に準拠しながら、リスクを検出し軽減するプロセスを明確にすることができます。
このケースは単独のものではありません。2024年にJournal of Experimental Criminologyに発表された学術研究でも、Draft Oneを含むAI支援報告書作成システムが実際の時間短縮効果を示さなかったという結果が報告されています。これらの事実は、Axon社の主張と実際の効果に重要な乖離があることを示しています。
技術的には、長文脈での「needle in a haystack(干し草の山の中の針)」的検索・想起の正確性が論点です。Anthropicは内部評価で100%の再現性を謳いますが、これはあくまで社内テストであり、実運用におけるコード異臭検知や設計上のトレードオフ把握など、多層的な推論の持続性は現場検証が不可欠です。ただし、プロジェクト全体像を”丸ごと”見渡せること自体は、ファイル粒度の分割では失われがちだった依存関係と設計意図を保ったまま提案できる余地を広げます。