Google DeepMindのCEO、Demis Hassabisは、OpenAIとの競争に対抗するため、AIモデルの開発と展開を推進しています。Googleは以前、ChatGPTに関連するアイデアを提供しましたが、その商業化は見送られました。現在、Googleは「Gemini」と呼ばれる新しいAIモデルを開発し、これをGoogle製品に組み込んでいます。さらに、より強力な「Gemini Ultra」モデルの開発にも取り組んでいます。
Google DeepMindはAIの安全性に関する議論に積極的に参加し、政府機関との協力を進めています。AIシステムが実際に稼働する際には、現在のシステムとは異なる能力を持つため、より慎重な対応が必要です。政府、産業界、学界の協力により、AIの安全性に関する取り組みが進められています。
ニュース解説
Google DeepMindのCEOであるDemis Hassabisは、AI技術の進化において、単にコンピュータのパワーやデータ量を増やすだけでは限界があると指摘しています。彼は、AIの大きな飛躍には新たな技術革新が必要であると述べており、特にAIが実際のタスクを実行する能力、つまりエージェントのような振る舞いをするAIの開発に注目しています。これは、AIが単に情報を提供するだけでなく、実際にタスクを遂行できるようになることを意味します。
Google DeepMindは、AIの安全性に関して積極的に取り組んでおり、政府機関との協力を通じて、AIシステムの安全性を確保するための方策を模索しています。これには、AIシステムをインターネット上で実際に展開する前に、シミュレーション環境で徹底的にテストすることが含まれます。このような取り組みは、AI技術の安全な進化を確保する上で不可欠です。
このケースは単独のものではありません。2024年にJournal of Experimental Criminologyに発表された学術研究でも、Draft Oneを含むAI支援報告書作成システムが実際の時間短縮効果を示さなかったという結果が報告されています。これらの事実は、Axon社の主張と実際の効果に重要な乖離があることを示しています。
技術的には、長文脈での「needle in a haystack(干し草の山の中の針)」的検索・想起の正確性が論点です。Anthropicは内部評価で100%の再現性を謳いますが、これはあくまで社内テストであり、実運用におけるコード異臭検知や設計上のトレードオフ把握など、多層的な推論の持続性は現場検証が不可欠です。ただし、プロジェクト全体像を”丸ごと”見渡せること自体は、ファイル粒度の分割では失われがちだった依存関係と設計意図を保ったまま提案できる余地を広げます。