Anthropic、Apple・Googleらと共に「Project Glasswing」始動

Apple・Google・Microsoftら40社超参加の「Project Glasswing」始動

Anthropicは2026年4月7日、AIモデル「Claude Mythos Preview」を発表した。新たなサイバーセキュリティ構想「Project Glasswing」の一環として、Apple、Google、Microsoft、Nvidia、Amazon Web Servicesを初期ローンチパートナーとし、CrowdStrikeやPalo Alto Networksを含む40社超が参加する。

同モデルはソフトウェアの脆弱性発見に優れ、OpenBSDで27年前のバグを特定した事例がある。Anthropicは最大1億ドル相当の利用クレジットを拠出する。同社はサイバーセキュリティ・インフラセキュリティ庁(CISA)およびAI標準・革新センター(CAISI)と協議を続けている。

ディアン・ペン氏、ニュートン・チェン氏が取材に応じ、ダリオ・アモデイCEOがXに投稿した。前月末にはFortuneが公開データキャッシュから同モデルの記述を発見していた。

From: 文献リンクAnthropic limits Mythos AI rollout over fears hackers could use model for cyberattacks

【編集部解説】

本件は単なるAIプロダクトの発表に見えますが、実際には「AIが本格的にサイバーセキュリティの勢力図を書き換え始めた瞬間」を示す象徴的な出来事です。まず押さえておきたいのは、Claude Mythos Preview がサイバーセキュリティ専用に訓練されたモデルではないという事実です。汎用のフロンティアモデルが高度なコーディングと推論を磨いた結果、副産物として脆弱性発見能力が創発(emergence)したと Anthropic は説明しています。これは「AIにセキュリティを教える時代」から「AIが勝手にセキュリティ能力を獲得する時代」への移行を意味します。

実際の成果は数字以上に象徴的です。OpenBSDにおける27年前の脆弱性は、攻撃者が対象マシンに接続するだけで遠隔からクラッシュを引き起こしうるもので、数十年にわたる人間レビューや自動テストをすり抜けてきた深刻な欠陥でした。FreeBSDでは17年前のリモートコード実行脆弱性(CVE-2026-4747)をMythos Previewが完全自律的に発見・エクスプロイトまで構築したとされています。人間の熟練エンジニアが見落としてきた欠陥を、AIが自ら掘り起こした点が重要です。

Anthropic が限定公開という形を取った理由は明確です。Anthropicは、Claude Mythos Previewが主要OSや主要ブラウザを含む重要ソフトウェアで数千件のゼロデイ脆弱性を特定したと説明しており、同社はこれを「AI時代のサイバーセキュリティにおいて防御側に持続的優位を与える重要な一歩」と位置づけています。言い換えれば、同等の能力が悪意ある攻撃者の手に渡る前に、防御側に「先行優位(head start)」を与えるという戦略です。

プロジェクト名「Glasswing」は、翅が透明な蝶に由来します。普段は目に見えないソフトウェアの脆弱性を可視化する、というメタファーです。単なる技術発表に文学的な命名を施すところに、Anthropic が自社の「責任あるAI」というブランドをどれほど意識しているかが窺えます。

ただし、この「限定公開で防御側を優位にする」という戦略には冷静な視点も必要です。独立系セキュリティ研究機関AISLEは、Anthropicが公開した代表例の一部について36億アクティブパラメータ規模の小型オープンウェイトモデルでも相当程度の解析が可能だったと報告しています。そのうえでAISLEは、サイバー能力の優位性は特定の単一モデルだけで決まるものではない可能性があると論じているのです。AISLEは、AIのサイバー能力は「jagged frontier(ギザギザのフロンティア)」として不均一に現れると分析しており、特定企業による限定公開だけで長期的な封じ込めが可能かどうかには疑問を投げかけています。

さらに、2026年4月22日には、Claude Mythos Previewがサードパーティベンダー環境経由で不正アクセスを受けた可能性があるとの報道が出ており、Anthropicが調査中であると認めています。発表からわずか2週間で、「限定公開による封じ込め」という前提が試される事態が生じた点は看過できません。

このニュースを理解するには、2026年1月以降に表面化したAnthropicと米国防総省の緊張関係も視野に入れる必要があります。WIREDは、国防総省がAIの合法的な軍事利用について広い裁量を求めたのに対し、Anthropicが自律型兵器や大規模な国内監視への利用に反発し、最終的にサプライチェーンリスク指定と提訴に発展したと報じています。Project Glasswingの発表は、そうした緊張の中で、Anthropicが民間の防御力強化という形で安全保障分野への関与を示した動きと読むこともできます。

規制・ガバナンスへの含意も無視できません。協議相手として言及されているCAISIは、2025年6月にAI安全性研究所(AISI)から改称された組織で、トランプ政権下で「安全性」から「標準と革新」へと軸足を移しています。「セーフティ」ではなく「セキュリティ」を軸に据えた今回の発表は、この政策転換と整合する形で自主規制の枠組みを提示した事例とも見えます。

日本の読者にとってのインパクトも大きいはずです。Linux Foundation がパートナーに含まれるとはいえ、Mythosクラスのモデルは当面、米国の巨大テック企業とその取引先に集中します。日本のソフトウェアインフラ、とくに重要インフラを支えるOSSの多くは、限られた開発者がボランティアで保守している状態にあります。OpenBSDやFFmpegのように「広く使われているが資金は乏しい」プロジェクトが、AIによって大量の脆弱性を指摘される時代に、どうパッチサイクルを回すのか。これは技術課題ではなく、社会基盤の問題です。

長期的には、サイバー攻撃の経済性そのものが変わります。従来、高度なゼロデイ発見は国家レベルの諜報機関か、アンダーグラウンド市場で数十万ドル単位で取引されるエクスプロイト仲介業者の独壇場でした。Mythosクラスのモデルが普及すれば、この非対称性は崩れ、防御側にも攻撃側にも同じ「AI能力の民主化」が及びます。結果として、パッチ適用までの猶予時間が劇的に短縮され、ソフトウェアの「書かれた瞬間に陳腐化する」時代が到来する可能性があります。

innovaTopia がこのニュースを今伝えるのは、AIを「便利な道具」としてのみ理解する段階は終わったからです。AIはインフラの安全性を担う主体であり、同時に脅威の担い手にもなりうる両義的存在となりました。私たち読者が問うべきは、「このAIで何ができるか」ではなく、「この能力をどう社会で制御し、人類の進化の方向にどう振り向けるか」という、より根源的な問いなのです。

【用語解説】

創発(Emergence)
AIモデルの規模や学習量が一定の閾値を超えたとき、訓練目的ではなかった能力が副次的に出現する現象を指す。Mythosが汎用訓練の副産物としてサイバー能力を獲得した事例が該当する。

エクスプロイト(Exploit)
脆弱性を実際に悪用し、システムへの不正アクセスや権限奪取を実現するためのコードや手法のことである。

ファジング(Fuzzing)
大量かつランダムな入力値をプログラムに投入し、予期せぬ挙動や脆弱性を自動検出する手法だ。従来は長年発見できなかったバグをMythosが見抜いたことで、ファジングの限界も浮き彫りになった。

Frontier Red Team
Anthropic社内の専門チームで、フロンティアAIモデルがサイバーセキュリティ、生物学的リスク、自律システムなどの領域で引き起こしうるリスクを検証する役割を担っている。

AISLE
AIセキュリティ領域で検証・分析を行う独立研究機関である。本件ではMythosの成果を小型オープンウェイトモデルでも再現可能だったと報告し、「限定公開による封じ込め」戦略の実効性に疑問を投げかけた。

サードパーティベンダー環境
企業が外部委託先に提供・運用させているシステム環境のことを指す。自社本体のシステムとは別ネットワークに置かれることが多いが、そこを経由した情報漏洩インシデントは近年増加傾向にある。

Glasswing(グラスウィング)
中南米の熱帯雨林などに生息する、翅が透明な蝶の俗称だ。本プロジェクトでは「普段は見えないソフトウェア脆弱性」のメタファーとして採用された。

【参考リンク】

Anthropic(公式サイト)(外部)
Claudeを開発するAI企業の公式サイト。2021年創業、AI安全性研究を掲げる米サンフランシスコ拠点の企業である。

FFmpeg(公式サイト)(外部)
動画・音声の変換やエンコードで事実上の業界標準となっているオープンソースライブラリ。16年前の脆弱性が発見されている。

CISA(米サイバーセキュリティ・インフラセキュリティ庁)(外部)
米国の重要インフラへのサイバー脅威を統括する政府機関。AnthropicとMythosについて継続的に協議している。

CAISI(米AI標準・革新センター)/ NIST(外部)
米商務省傘下NISTに置かれるAIの評価・標準化機関。2025年6月にAI安全性研究所(AISI)から改称された。

【参考記事】

Project Glasswing: Securing critical software for the AI era(Anthropic公式ブログ)(外部)
Project Glasswing発足の目的、参加企業、Mythos Previewが数千件のゼロデイ脆弱性を発見した旨を同社が正式に発表した一次情報である。

Claude Mythos Preview(Anthropic Frontier Red Team 技術ブログ)(外部)
OpenBSDの27年前のバグやブラウザサンドボックス脱出エクスプロイトなど、Mythosの技術的到達点を詳述した記事だ。

Anthropic’s Project Glasswing CVE count is still guesswork(The Register)(外部)
17年前のFreeBSDリモートコード実行脆弱性CVE-2026-4747を含む、公開CVEと未公開CVEの切り分けを検証した批判的な記事である。

AI Cybersecurity After Mythos: The Jagged Frontier(AISLE)(外部)
36億アクティブパラメーター規模の小型オープンウェイトモデルでもMythosの成果を再現可能だったと報告した検証記事である。

Hackers breach Anthropic’s ‘too dangerous to release’ Mythos AI model(Euronews)(外部)
2026年4月22日、Mythos Previewがサードパーティベンダー環境経由で不正アクセスを受けた疑いを報じた記事である。

Anthropic Launches Project Glasswing to Fix Software Bugs With AI(Infosecurity Magazine)(外部)
主要パートナー企業、OpenBSD・FFmpeg脆弱性の内容、1億ドル規模の利用クレジットなどをコンパクトに解説した記事である。

【編集部後記】

今回の記事を読んで初めに浮かんだのは、「見えないものを可視化する力を誰が持つべきか」という問いでした。ソフトウェアの脆弱性は普段、ほとんどの人の目に映りません。しかしそれが一斉に可視化される瞬間、守る側と攻める側のどちらが先に動くかで、私たちの日常の安全は大きく変わります。みなさんがお使いのサービスや、お仕事で関わるシステムに照らして、このニュースをどう捉えられましたか。ぜひSNSなどでご感想をお寄せいただけるとうれしいです。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です