GoogleのResponsible AI User Experience (Responsible AI UX)チームは、Google Researchに属する製品指向のグループで、AI開発におけるユーザーセンタードのUXデザインプロセスを実践しています。彼らは、製品開発においてユーザーのニーズと価値提案が一致することを重視し、AIの倫理的、社会的影響を考慮しながら、安全性と包含性に関するプロトコルを開発しています。
GenAI製品の開発では、Responsible AI UXチームはプロトタイピングの重要性を認識し、大規模言語モデル(LLM)をプロトタイピングプロセスに組み込むことの必要性を探求しました。共創セッションや反復を通じて、ユーザーの視点を理解し、チーム間の一致を強化することに成功し、MLの経験がない人々もLLMを使用して創造的なプロトタイピングができるGenerative AIプラットフォーム「MakerSuite」を開発し、Google I/O 2023で発表しました。
音声認識技術においては、黒人話者に対する理解能力の不足を解決するためにHoward大学と協力し、African-American Englishのデータセットを構築しています。また、コンピュータビジョンシステムが様々な肌の色調を認識できるように、Dr. Ellis Monkと協力してMonk Skin Tone Scale(MST)を開発し、より包括的なデータセットの構築とモデルのパフォーマンス評価を行っています。
さらに、Responsible AI UXチームは、GenAIモデルを活用した製品開発をサポートするために、People + AI Guidebookを含むアクション可能な資産を開発し、責任あるデザインの教訓と推奨事項を提供しています。彼らは、製品開発の重要なマイルストーンで実行可能なガイダンスを提供し、GenAIとユーザーニーズを最適にデザインするためのアップデートを行っています。
このケースは単独のものではありません。2024年にJournal of Experimental Criminologyに発表された学術研究でも、Draft Oneを含むAI支援報告書作成システムが実際の時間短縮効果を示さなかったという結果が報告されています。これらの事実は、Axon社の主張と実際の効果に重要な乖離があることを示しています。
技術的には、長文脈での「needle in a haystack(干し草の山の中の針)」的検索・想起の正確性が論点です。Anthropicは内部評価で100%の再現性を謳いますが、これはあくまで社内テストであり、実運用におけるコード異臭検知や設計上のトレードオフ把握など、多層的な推論の持続性は現場検証が不可欠です。ただし、プロジェクト全体像を”丸ごと”見渡せること自体は、ファイル粒度の分割では失われがちだった依存関係と設計意図を保ったまま提案できる余地を広げます。