GPT-4に過信の危険性—AIの父ヒントン氏が告白「必要以上に信頼している」

GPT-4に過信の危険性—AIの父ヒントン氏が告白「必要以上に信頼している」」

「AIの生みの親」として知られるジェフリー・ヒントン氏(77歳)が、OpenAIのGPT-4チャットボットを「必要以上に信頼している」と告白した。この発言は2025年5月に放送されたCBSのインタビューで行われた。

2024年にノーベル物理学賞を受賞したヒントン氏は、日常的なタスクにGPT-4を使用しており、「疑うべきなのに、言われたことを信じる傾向がある」と述べた。インタビューでは、ヒントン氏がGPT-4に「サリーには3人の兄弟がいます。彼女の兄弟それぞれに2人の姉妹がいます。サリーには何人の姉妹がいますか?」という謎かけを出題。正解は「1人(サリー自身)」だが、GPT-4は誤って「2人」と回答した。

ヒントン氏はこの失敗について「まだこのような間違いをするとは驚きだ」と述べ、GPT-4を「あらゆることの専門家だが、あらゆることの非常に優れた専門家ではない」と評した。しかし、将来のバージョンについては楽観的で、GPT-5が同じ謎かけを正しく解くかという質問に「そうだと思う」と答えた。

インタビュー放送後、ソーシャルメディアユーザーからは、OpenAIの最新モデルであるGPT-4oやGPT-4.1ではこの謎かけを正確に解けたとの報告があった。

なお、OpenAIは2023年3月にGPT-4をリリースし、その後GPT-4 Turbo、GPT-4o、GPT-4.1といった改良版や後継モデルを順次発表・提供しており、内部的にはGPT-4.5のようなさらに高度なモデルの開発も進められている。2025年4月30日からはGPT-4をGPT-4oに完全に置き換える予定だが、APIを通じたGPT-4へのアクセスは継続するとしている。現在、Google社のGemini 2.5-Proが独立したChatbot Arenaリーダーボードでトップに立っているが、OpenAIの製品も僅差で追随している状況だ。

ヒントン氏は2023年5月にGoogle社を退社し、AIの潜在的な危険性について警告を続けている人物として知られている。

References:
文献リンク‘Godfather of AI’ Geoffrey Hinton says he trusts OpenAI’s GPT-4 chatbot more than he should

【編集部解説】

ジェフリー・ヒントン氏の発言は、AI技術の進化と人間の心理の興味深い交差点を示しています。「AIの生みの親」と呼ばれる研究者自身が、自らが警告してきた技術に対して「必要以上に信頼している」と告白したことは、現代のAI技術がいかに説得力を持ち、専門家でさえもその影響から逃れられないことを物語っています。

ヒントン氏が提示した「サリーの謎かけ」は単純な論理問題ですが、GPT-4がこれを間違えたという事実は重要な示唆を含んでいます。最先端のAIモデルでさえ、人間にとって基本的な推論が時に困難であることを示しているのです。これは、AIが専門的な知識や複雑な計算では優れた能力を示す一方で、常識的な推論においてはまだ課題があることを表しています。

興味深いのは、インタビュー放送後にソーシャルメディアユーザーがGPT-4oやGPT-4.1で同じ謎かけを試し、正解を得たと報告している点です。これは、OpenAIが短期間でモデルを改良し、以前の弱点を克服していることを示唆しています。AI技術の進化速度は加速しており、今日の限界が明日には解決されるという現実が浮き彫りになっています。

ヒントン氏の「GPT-4をあらゆることの専門家だが、あらゆることの非常に優れた専門家ではない」という評価は的確です。現在のAIモデルは幅広い知識を持ちながらも、特定の分野での深い専門性や一貫した論理的推論においては人間の専門家に及ばない面があります。

この記事が示す重要な点は、AI技術に対する私たちの信頼の問題です。ヒントン氏のような専門家でさえAIの回答を「必要以上に信頼している」と認めるなら、一般ユーザーはさらに無批判にAIの出力を受け入れてしまう可能性があります。これは、誤情報の拡散やAIへの過度の依存といったリスクを高めることになりかねません。

AIモデルの進化は急速に進んでいます。OpenAIはGPT-4から始まり、GPT-4o、GPT-4.5、GPT-4.1と次々に新しいモデルをリリースしています。GoogleもGemini 2.5-Proで多くのベンチマークでトップに立つなど、AI開発競争は激化の一途をたどっています。

この競争がもたらす技術進歩は、医療診断や科学研究、教育など多くの分野で革新的な応用を可能にする一方で、ヒントン氏が2023年から警告しているような潜在的リスク—AIが人間よりも知的になり、独自の目標を持つことで人間の制御を超える可能性—も高めています。

【用語解説】

ジェフリー・ヒントン(Geoffrey Hinton):
ディープラーニングの先駆者で「AIの生みの親」と呼ばれる研究者。1947年12月6日生まれの英国人で、ニューラルネットワークの基礎となる誤差逆伝播法の普及に貢献した。2023年5月にGoogleを退社し、AIの危険性について警鐘を鳴らしている。2024年にノーベル物理学賞を受賞。

GPT-4:
OpenAIが2023年3月に発表した大規模言語モデル。GPT-3.5と比較して文脈理解能力や推論能力が向上している。テキストだけでなく画像も理解できるマルチモーダル機能を持つ。

GPT-4o:
OpenAIが2025年4月に発表したGPT-4の後継モデル。「o」はオムニ(omni:全ての)を意味し、テキスト、画像、音声などを統合的に処理できる。

マルチモーダル:
複数の情報形式(テキスト、画像、音声など)を同時に処理できる能力のこと。人間のように様々な感覚情報を統合して理解できる。

Gemini 2.5 Pro:
Googleが2025年3月に発表した最新のAIモデル。長文処理能力や動画理解能力に優れており、複数のAI評価ベンチマークで高いスコアを記録している。

Chatbot Arena:
複数のAIチャットボットを匿名で比較評価できるプラットフォーム。ユーザーが同じ質問を2つのモデルに投げかけ、より良い回答をしたモデルに投票する仕組み。

【参考リンク】

OpenAI(外部)
GPT-4やGPT-4oを開発する企業。安全で有益なAI開発を目指している。

Google Gemini(外部)
Googleが開発するAIモデル「Gemini」のサービス。Gemini 2.5 Proなどを提供している。

【参考動画】

【編集部後記】

AIの父と呼ばれるヒントン博士でさえAIを「必要以上に信頼している」と告白する時代、あなたは日常でAIツールをどのように使っていますか? 便利さに流されて鵜呑みにしていることはありませんか? あるいは逆に、AIの回答に過度に懐疑的になっていませんか? SNSでぜひあなたのAIとの付き合い方を教えてください。最先端技術と人間の関係性について、一緒に考えていきましょう。

【関連記事】

AI(人工知能)ニュースをinnovaTopiaでもっと読む

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です