OpenAIは2026年4月14日、Trusted Access for Cyber(TAC)プログラムを認証済みの個人防衛者数千人および数百チームに拡大し、GPT‑5.4をベースにファインチューニングしたGPT‑5.4‑Cyberをリリースした。同モデルはバイナリリバースエンジニアリング機能を備え、審査済みのセキュリティベンダー・組織・研究者への限定展開から開始する。
TACは2026年2月に導入され、個人はchatgpt.com/cyberで身元確認が可能だ。Codex Securityはエコシステム全体で3,000件以上のクリティカルおよび高深刻度の脆弱性修正に貢献し、Codex for Open Sourceは1,000以上のオープンソースプロジェクトに無料スキャンを提供している。OpenAIは1,000万ドルのCybersecurity Grant Programを実施している。
From:
Trusted access for the next era of cyber defense
【編集部解説】
今回の発表を一言で表すなら、「AIサイバーセキュリティの民主化宣言」です。OpenAIはGPT‑5.4‑Cyberのリリースとともに、高度なサイバー防衛ツールへのアクセスを一部の特権的な組織だけでなく、認証を受けた幅広い個人や企業にまで開放するという明確な意志を示しました。
まず、この記事で最も理解しておきたいキーワードが「cyber-permissive(サイバー許容的)」という概念です。通常のAIモデルは、悪用を防ぐために脆弱性解析や攻撃的コードに関わるリクエストを拒否するよう設計されています。GPT‑5.4‑Cyberはその拒否の閾値を、認証された防衛者に限り意図的に引き下げたモデルです。つまり「できることを制限する」のではなく、「誰に使わせるかを厳しく管理する」という発想の転換です。
注目すべきもう一つの機能が「バイナリリバースエンジニアリング」です。通常、ソフトウェアのセキュリティ解析にはソースコードへのアクセスが前提となります。しかし現実には、マルウェアや商用ソフトウェアのソースコードは公開されていません。バイナリリバースエンジニアリングとは、コンパイル済みの実行ファイルだけを手がかりに、その内部構造や脆弱性を解析する高度な技術です。これまで専門家チームが数週間かけて行っていた作業を、AIが大幅に加速できる可能性があります。
今回の発表を読み解く上で欠かせない文脈が、Anthropicとの比較です。Anthropicは1週間前の2026年4月7日にProject Glasswingを発表し、Claude Mythos PreviewをAmazon Web Services、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorganChase、Linux Foundation、Microsoft、NVIDIA、Palo Alto Networksの12の創設パートナーを含む、合計52以上の組織に限定提供しました。一方OpenAIは、数千人規模の個人と数百チームへの展開を目指す「広く、速く」の戦略を選択しています。OpenAIは今回の記事の中で「誰が自分自身を守れるかを中央集権的に決定することは現実的でも適切でもない」と述べており、これはAnthropicの閉鎖的なアプローチへの明確な対抗意識と読み取れます。
ただし、著名なセキュリティ研究者ブルース・シュナイアーが指摘するように、両社のアプローチはいずれもPR的な側面を含んでいることは忘れてはなりません。OpenAIの「広く開く」戦略は確かに理念として魅力的ですが、KYC(本人確認)や身元確認の仕組みが実際に悪意ある行為者を排除できるかどうかは、まだ証明されていません。悪用者が正規の防衛者を装うリスクは常に存在します。
規制への影響という観点でも、この動きは重要な先例となります。OpenAIが採用するKYCベースのアクセス管理は、AIを利用した高度なツールに対して「モデルの機能制限」ではなく「身元確認と段階的アクセス」で管理するというモデルケースになり得ます。これは今後、各国の規制当局がAI規制を設計する際の参照点になる可能性があります。
長期的な視点では、今回の発表はAIとサイバーセキュリティの関係が不可逆的に変わりつつあることを示しています。OpenAIは将来のさらに高性能なモデルに備えて、今から信頼アクセスの仕組みを整備しておくことが不可欠だと述べています。AIの能力が指数関数的に向上する中で、防衛側がその恩恵を先に手にできるかどうか——その問いへの答えを、このプログラムの成否が示すことになります。
【用語解説】
cyber-permissive(サイバー許容的)
AIモデルが、サイバーセキュリティに関わるリクエストに対して通常よりも拒否の閾値を下げた状態を指す。標準モデルは悪用防止のため脆弱性解析などを拒否することがあるが、認証済みの防衛者に限り、その制約を緩和した設計のモデルを意味する。
バイナリリバースエンジニアリング
ソースコードにアクセスせずに、コンパイル済みの実行ファイル(バイナリ)を解析して内部構造や脆弱性を調べる技術。マルウェア解析や未知の脆弱性の発見に用いられる高度な手法。
KYC(Know Your Customer)
「顧客確認」を意味する。金融業界で発展した本人確認の仕組みで、OpenAIはこれをサイバー防衛者の認証プロセスに応用し、アクセス権限の付与根拠としている。
Zero-Data Retention(ZDR)
ユーザーが送信したデータをOpenAIが保持・学習に利用しないことを保証する契約オプション。機密性の高い環境で利用される企業向けの設定だが、OpenAI側の可視性が低下するため、よりパーミッシブなモデルの提供には制限が生じる場合がある。
Project Glasswing
Anthropicが2026年4月7日に発表したサイバーセキュリティ防衛イニシアティブ。Claude Mythos Previewを12の創設パートナー(Amazon Web Services、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorganChase、Linux Foundation、Microsoft、NVIDIA、Palo Alto Networks)および40以上の追加組織、合計52以上の組織に提供し、ソフトウェアの脆弱性を攻撃者より先に発見・修正することを目的としている。
【参考リンク】
OpenAI(外部)
GPT‑5.4‑CyberおよびTrusted Access for Cyber(TAC)プログラム、Codex Securityを提供するAI企業の公式サイト。
Anthropic — Project Glasswing(外部)
12の創設パートナーおよび40以上の追加組織が参加するClaude Mythos Previewの防衛イニシアティブ公式ページ。
Microsoft(外部)
Project Glasswingの創設パートナー。AnthropicのClaude Mythos Previewを活用したサイバー防衛活動に参画している。
CrowdStrike(外部)
Project Glasswingの創設パートナー。AIを活用したエンドポイント保護で知られるサイバーセキュリティ専門企業。
Palo Alto Networks(外部)
Project Glasswingの創設パートナー。AIとサイバー防衛の統合に積極的に取り組むネットワークセキュリティの大手企業。
Schneier on Security(外部)
セキュリティ研究者ブルース・シュナイアーの公式ブログ。OpenAI・Anthropicの動向に対する批評も掲載している。
【参考記事】
OpenAI launches GPT-5.4-Cyber model for vetted security pros(外部)
GPT‑5.4‑CyberとTACプログラム拡張の詳細。Codex Securityが3,000件以上の脆弱性修正に貢献した数値等を含む。
GPT-5.4 Becomes First Universal AI Model to Earn ‘High’ Cybersecurity Risk Status(外部)
GPT‑5.4のCTFベンチマーク成績と「高」サイバー能力分類の経緯を具体的な数値とともに詳報している。
OpenAI releases GPT-5.4-Cyber, beefed-up Trusted Access for Cyber program(外部)
OpenAIとAnthropicのサイバーセキュリティ戦略の違いを対比して分析した業界調査メディアの記事。
Anthropic debuts preview of powerful new AI model Mythos in new cybersecurity initiative(外部)
Project Glasswingの参加組織数を訂正・明確化したTechCrunchの記事。12パートナー+40以上の追加組織の構造を確認できる。
Anthropic says its most powerful AI cyber model is too dangerous to release publicly(外部)
Project Glasswingの詳細構造と1億ドルのクレジットコミットメントを詳報したVentureBeatの記事。
On Anthropic’s Mythos Preview and Project Glasswing(外部)
ブルース・シュナイアーによる批評。両社の発表のPR的側面を指摘した冷静な視点を提供している。
Claude Mythos and Project Glasswing: why an AI superhacker has the tech world on alert(外部)
「先手防衛」の概念とGPT-2非公開との歴史的比較をわかりやすく解説したThe Conversationの記事。
【編集部後記】
「誰でも使えるAI」と「安全なAI」、あなたはどちらを優先すべきだと思いますか?OpenAIの「広く開く」戦略とAnthropicの「厳しく絞る」戦略、どちらが正解かはまだ誰にもわかりません。
AIがサイバー空間の防衛と攻撃の両方を変えていく時代に、私たちもその行方から目が離せずにいます。

