新しい法案により、AI企業は著作権のあるトレーニングデータの開示を義務付けられることになります。この「AI Foundation Model Transparency Act」は、AIモデルのトレーニングに使用された著作権データが明確になることを目指しています。この法案は、連邦取引委員会(FTC)と国立標準技術研究所(NIST)にトレーニングデータの透明性に関する規則を設定するよう指示します。AIモデルの開発者は、トレーニングデータの出典、データの保持方法、モデルのリスクや限界、NISTのAIリスク管理フレームワークや他の連邦基準との整合性、モデルのトレーニングと実行に使用される計算能力について報告する必要があります。また、医療や健康に関する質問、生物合成、サイバーセキュリティ、選挙、警察、金融ローンの決定、教育、雇用決定、公共サービス、子供などの脆弱な集団に関して「不正確または有害な情報」を提供しないようにするためのモデルの「レッドチーム」による評価の努力についても報告が求められます。AI企業に対する著作権侵害の訴訟が増加している中、この法案はトレーニングデータの透明性の重要性を強調しています。法案はまだ委員会に割り当てられ、議論される必要があり、選挙キャンペーンの忙しい時期が始まる前にそれが行われるかは不明です。この法案はバイデン政権のAIに関する行政命令を補完するもので、AIモデルの報告基準を確立するのに役立ちますが、行政命令は法律ではないため、この法案が通過すれば、トレーニングデータの透明性要件を連邦規則とすることになります。
このケースは単独のものではありません。2024年にJournal of Experimental Criminologyに発表された学術研究でも、Draft Oneを含むAI支援報告書作成システムが実際の時間短縮効果を示さなかったという結果が報告されています。これらの事実は、Axon社の主張と実際の効果に重要な乖離があることを示しています。
技術的には、長文脈での「needle in a haystack(干し草の山の中の針)」的検索・想起の正確性が論点です。Anthropicは内部評価で100%の再現性を謳いますが、これはあくまで社内テストであり、実運用におけるコード異臭検知や設計上のトレードオフ把握など、多層的な推論の持続性は現場検証が不可欠です。ただし、プロジェクト全体像を”丸ごと”見渡せること自体は、ファイル粒度の分割では失われがちだった依存関係と設計意図を保ったまま提案できる余地を広げます。