Claude大規模障害の背景にApp Store首位と「前例のない需要」―Anthropicと国防総省の対立が生んだユーザー大移動

2026年3月2日、AnthropicのAIチャットボットClaudeが大規模な障害を起こした。同社はClaudeのステータスページで「エラーの増加(elevated errors)」を確認し、影響範囲はClaude本体、Claude Opus 4.6、Claude Console、Claude Codeに及んだ。Downdetectorでは2,000人以上のユーザーが問題を報告した。Anthropicは声明で、claude.aiやアプリなどコンシューマー向けサービスが利用不可となる一方、企業向けClaude APIは影響を受けていないと説明した。同社は「前例のない需要」に直面していると述べた。障害発生の数時間前、ClaudeはAppleのApp Storeで米国の無料アプリダウンロード数第1位を獲得し、OpenAIのChatGPTを追い抜いていた。無料版Claudeのユーザー数は1月以降60パーセント以上増加している。この躍進の背景には、トランプ大統領によるAnthropic技術の政府利用停止の発表と、OpenAIの米国国防総省との軍事利用契約がある。同日午後4時37分(UTC)、Anthropicは復旧を確認した。

From: 文献リンクClaude is down: What we know about the Anthropic outage

【編集部解説】

今回のClaude大規模障害は、単なる技術的トラブルではなく、AI業界の地政学的な転換点を象徴する出来事として注目に値します。

障害の直接的な原因は、急激なユーザー流入によるインフラへの負荷です。Anthropicが「前例のない需要」と表現した背景には、わずか数日間で起きた劇的な市場変動があります。Sensor Towerのデータによると、2月28日(土)にChatGPTの米国アンインストール数が前日比295%増加し、1つ星レビューは775%急増しました。同日、Claudeの米国ダウンロード数は前日比51%増を記録し、Appfiguresによれば、Claudeの1日の米国ダウンロード数がChatGPTを初めて上回りました。

この大量ユーザー移動の引き金となったのは、AIの軍事利用をめぐる一連の出来事です。Anthropicは国防総省(トランプ政権下で「Department of War(戦争省)」に改称)との既存契約(2025年7月締結、最大2億ドル規模)の利用条件をめぐる交渉において、「完全自律型兵器」と「米国市民に対する大規模国内監視」へのAI利用を禁じるレッドラインを譲らない姿勢を貫きました。CEOのダリオ・アモデイ氏は「良心に従えばこの要求に応じることはできない」と表明しています。

これに対し、ピート・ヘグセス国防長官はAnthropicを「サプライチェーンリスク」に指定し、トランプ大統領は全連邦機関にAnthropic技術の即時使用停止を命じました。その数時間後、OpenAIが国防総省と「機密環境」でのAI展開に関する契約を締結したことで、ユーザーの反発が一気に加速した形です。

注目すべきは、この一連の動きがAI市場において「倫理的ポジショニング」が競争優位になり得ることを示した点です。TechCrunchによると、Claudeは1月末時点でApp Storeのトップ100圏外でしたが、2月中にトップ20へ浮上し、最終的に週末に首位を獲得しました。年初来で無料ユーザーは60%以上増加し、有料登録者は今年に入って2倍以上に増えたとAnthropicは述べています。

一方、OpenAI側も無傷ではありません。サム・アルトマンCEO自身がXへの投稿で、国防総省との契約締結を「急ぎすぎた」「日和見的でずさんに見えた」と認め、契約条項の修正に動いています。具体的には、商業的に取得されたデータを監視目的で使用しないことを明文化する条項が追加されました。

技術的な観点では、今回の障害はコンシューマー向けサービス(claude.aiとアプリ)のログイン・認証基盤に集中しており、企業向けAPIは正常に稼働し続けていました。この切り分けは、Anthropicのインフラ設計がビジネス顧客への影響を最小化する構造になっていることを示す一方、コンシューマー向けのスケーラビリティに課題が残ることも浮き彫りにしています。

長期的に見ると、この出来事はAI業界に複数の示唆を与えます。第一に、AI企業の政治的・倫理的立場が、製品性能と同等以上にユーザー選択に影響し得る時代に入ったこと。第二に、急激なユーザー増がサービス安定性に直結するリスクがあること。そして第三に、AI技術の軍事利用をめぐる規制の枠組みが、米国においてすら未整備であるという現実です。Lawfareの分析では、ヘグセス長官によるサプライチェーンリスク指定は法的根拠が脆弱であり、Anthropicが法廷で争う意向を示していることから、今後の司法判断がAI企業と政府の関係を規定する重要な先例となる可能性があります。

【用語解説】

elevated errors(エラーの増加)
サービスの正常稼働時と比較して、エラーの発生率が通常より高い状態を指す。完全なサービス停止ではなく、リクエストの失敗やタイムアウトなどが断続的に発生する障害レベルを意味する。

LLM(大規模言語モデル)
Large Language Modelの略。大量のテキストデータで訓練されたAIモデルで、文章の生成、翻訳、要約、コード生成など幅広いタスクを処理する。Claude Opus 4.6やChatGPTの基盤技術である。

API(Application Programming Interface)
ソフトウェア同士が情報をやり取りするための仕組み。企業がClaude APIを利用することで、自社のサービスにClaudeの機能を組み込むことができる。今回の障害ではコンシューマー向けサービスが影響を受けた一方、APIは正常に稼働していた。

サプライチェーンリスク指定
米国防総省が特定の企業を国家安全保障上のリスクと認定する措置である。指定を受けると、軍と取引のある全ての請負業者がその企業との商業活動を禁止される。通常はHuaweiのような外国企業に適用されるもので、米国企業への適用は極めて異例である。

Department of War(戦争省)
トランプ政権下で国防総省(Department of Defense)から改称された米国の軍事行政機関である。記事中の表記はこの改称に基づく。

【参考リンク】

Anthropic公式サイト(外部)
AIの安全性研究を重視する企業。AIチャットボットClaudeの開発元で、2021年にOpenAIの元メンバーが設立した。

Claude公式サイト(外部)
Anthropicが提供するAIアシスタントClaudeのウェブインターフェース。無料プランと有料Proプランを用意している。

Claude ステータスページ(外部)
Claudeの各サービス(チャットボット、API、Console、Code)の稼働状況をリアルタイムで確認できるページ。

OpenAI公式サイト(外部)
ChatGPTを開発・提供するAI企業。サム・アルトマンがCEOを務め、今回の件では米国防総省との軍事利用契約を締結した。

Downdetector(外部)
ウェブサービスやアプリの障害情報をユーザー報告に基づきリアルタイムで追跡するサイト。親会社はMashableと同じZiff Davis。

Sensor Tower(外部)
モバイルアプリのダウンロード数やユーザー行動を分析するマーケットインテリジェンス企業。今回の報道で主要データを提供した。

Appfigures(外部)
アプリストアの分析ツールを提供する企業。Claudeの米国日間ダウンロード数がChatGPTを初めて上回ったことを報告した。

【参考記事】

ChatGPT uninstalls surged by 295% after DoD deal — TechCrunch(外部)
Sensor Towerのデータに基づき、ChatGPTの米国アンインストール295%増とClaudeダウンロード急増を報道した記事。

Anthropic’s Claude rises to No. 1 in the App Store following Pentagon dispute — TechCrunch(外部)
ClaudeがApp Storeトップ100圏外から首位に至った経緯と、Anthropicのユーザー増加データを報じた記事。

Anthropic’s Claude overtakes ChatGPT in App Store — Fortune(外部)
OpenAIの国防総省との最大2億ドル契約とユーザー反発によるClaude首位獲得の背景を詳報した記事。

OpenAI’s Altman admits defense deal ‘looked opportunistic and sloppy’ — CNBC(外部)
アルトマンCEOが国防総省契約の拙速を認め、監視に関する契約条項を修正した経緯を報じた記事。

Pentagon threatens to make Anthropic a pariah if it refuses to drop AI guardrails — CNN(外部)
ヘグセス国防長官とアモデイCEOの会談詳細、2億ドル契約のレッドラインをめぐる対立構造を詳報した記事。

Hegseth declares Anthropic a supply chain risk — CBS News(外部)
サプライチェーンリスク指定の経緯とアモデイCEO独占インタビューを掲載。政府対応を「報復的」と評した記事。

Pentagon’s Anthropic Designation Won’t Survive First Contact with Legal System — Lawfare(外部)
サプライチェーンリスク指定の法的根拠の脆弱性とAnthropicが法廷で争う可能性を法学的に分析した記事。

   

【編集部後記】

AIチャットボットを選ぶとき、性能やコストだけでなく、その企業の「姿勢」が判断基準になる時代が来ているのかもしれません。今回の出来事は、技術の優劣だけでは語れない新しい競争軸の登場を感じさせます。みなさんがAIツールを選ぶとき、何を一番大切にしていますか?ぜひSNSなどで聞かせていただけるとうれしいです。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です