昨年、OpenAI、Google、Microsoft、AI安全性および研究会社Anthropicは、現在のAIモデルの能力を超える大規模な機械学習モデルの安全かつ責任ある開発を確保することに焦点を当てるFrontier Model Forumの設立を発表した。今年の5月には、AmazonとMetaがフォーラムに参加し、創設メンバーと協力している。ChatGPTは、Modernaなどの大企業によって医療分野で継続的に使用されており、OpenAIとのパートナーシップを通じて従業員にChatGPT Enterpriseへのアクセスを提供している。また、GSR Venturesによる調査によると、投資家の71%がこの技術が「ある程度」自身の投資戦略を変えていると信じており、17%は「大幅に」変えていると述べている。しかし、AIのバイアスを克服することは困難であり、特定の使用事例に応じてChatGPTの医療分野での使用の信頼性を検討し、効果的な実装のための適切な戦略を決定する必要があると、専門家は指摘している。
このようなバイアスの存在は、AI技術の安全かつ責任ある開発を目指す動きにも影響を与えています。例えば、OpenAI、Google、Microsoftなどの大手企業が参加するFrontier Model Forumの設立は、AIモデルの開発における倫理的な問題や安全性の確保に焦点を当てています。このフォーラムは、AI技術の進化が社会に与える影響を考慮し、より良いガイドラインや規制の策定を目指しています。
このケースは単独のものではありません。2024年にJournal of Experimental Criminologyに発表された学術研究でも、Draft Oneを含むAI支援報告書作成システムが実際の時間短縮効果を示さなかったという結果が報告されています。これらの事実は、Axon社の主張と実際の効果に重要な乖離があることを示しています。
技術的には、長文脈での「needle in a haystack(干し草の山の中の針)」的検索・想起の正確性が論点です。Anthropicは内部評価で100%の再現性を謳いますが、これはあくまで社内テストであり、実運用におけるコード異臭検知や設計上のトレードオフ把握など、多層的な推論の持続性は現場検証が不可欠です。ただし、プロジェクト全体像を”丸ごと”見渡せること自体は、ファイル粒度の分割では失われがちだった依存関係と設計意図を保ったまま提案できる余地を広げます。