AIサイバーセキュリティ軍拡競争の幕開け ― Claude MythosとGPT-5.4-Cyberが変える防衛の未来
AnthropicのClaude MythosとOpenAIのGPT-5.4-Cyberという2つの「危険すぎる」AIモデルの限定公開は、サイバーセキュリティの防衛と攻撃のバランスを根本から変えようとしている。
はじめに:AIが「売るには危険すぎる」時代
2026年4月、AI業界に地殻変動が起きた。AnthropicとOpenAIという2つのAIラボが、相次いで「商業販売するには危険すぎる」と判断したモデルを、限定的な配布プログラムを通じてのみ提供すると発表したのだ。
Anthropicは4月7日、新モデル「Claude Mythos Preview」と、それを40社以上の選定企業に限定提供する「Project Glasswing」を発表した。その1週間後の4月14日、OpenAIは対抗策として「GPT-5.4-Cyber」を公開し、「Trusted Access for Cyber(TAC)」プログラムを通じて検証済みのセキュリティ研究者・組織にのみ段階的に展開すると発表した。
これらのモデルは、単なる新製品ではない。AI業界が初めて「フロンティアモデルを公開しないこと」を競争戦略の軸に据えた歴史的瞬間であり、防衛AIと攻撃AIのバランスが崩壊しつつある現実への応答でもある。
Claude Mythos Previewの衝撃 ― 17年前の脆弱性を自律発見
Anthropicが公開したベンチマーク結果は業界に衝撃を与えた。Claude Mythos Previewは人間の誘導なしに、FreeBSDに17年間潜んでいたNFSのリモートコード実行脆弱性を自律的に発見・悪用することに成功した。この脆弱性を利用すれば、NFSサーバーを実行している任意のマシンに対してroot権限を取得できる。
さらに驚くべきは、Mythos Previewが主要なすべてのOS・すべてのメジャーWebブラウザにおいて、ユーザーの指示を受ければゼロデイ脆弱性を特定して悪用できる能力を持つことが確認された点だ。Anthropicが過去数週間Mythos Previewに解析させた結果、「数千件」のゼロデイ脆弱性が発見されており、その多くが重大(Critical)に分類されるものだった。
この能力は両刃の剣である。防衛側が使えば世界のソフトウェアインフラは劇的に安全になるが、攻撃者の手に渡れば破滅的な被害を引き起こしかねない。AnthropicのCEOダリオ・アモデイは、この非対称性こそがMythosを商業販売できない理由だと説明している。
Project Glasswing ― 40社連合による重要ソフトウェア防衛
Project Glasswingの設計思想は「信頼された組織のみに最先端AIを解放する」というものだ。Apple・Amazon・Microsoftを含む40社以上のテクノロジー企業で構成されるコンソーシアムが参加し、世界の重要ソフトウェアに潜む脆弱性の発見・修正にMythos Previewを使用する。
Anthropicは$100M(約150億円)相当のモデル利用クレジットをProject Glasswingとその参加者に拠出しており、この研究プレビュー期間中の膨大な計算コストをカバーする構えだ。単なる技術提供ではなく、経済的コミットメントを伴った業界横断的な防衛イニシアチブとして位置づけられている。
セキュリティ研究者のブルース・シュナイアー氏はブログで、Project Glasswingを「防衛者優位の短い時間窓を最大限活用する賢明な試み」と評価しつつも、「Mythos級のモデルは遅かれ早かれ流出または複製される。その時までに重要インフラをどれだけ硬化できるかが勝負だ」と警鐘を鳴らしている。
OpenAIの対抗策 ― GPT-5.4-CyberとTAC拡張
OpenAIは4月14日、Anthropicに対抗する形で「GPT-5.4-Cyber」を発表した。最新のフラッグシップモデルGPT-5.4を防衛的サイバーセキュリティ用途にファインチューニングしたバリアントで、バイナリのリバースエンジニアリングなど高度な防御ワークフローを実行できる能力が追加されている。
OpenAIが取ったアプローチは、Anthropicより「段階的」だ。まず検証済みのセキュリティベンダー・組織・研究者に限定配布し、その後「Trusted Access for Cyber(TAC)」プログラムを数千人規模の個人防衛者と数百の防衛チームに拡大する計画を発表した。当初は小規模コンソーシアム型、その後は審査を経た個人への開放という二段階戦略で、Anthropicのクローズドなアプローチとは一線を画している。
WIREDの取材に対しOpenAIのセキュリティ責任者は「最も強力な防衛AIを必要とするのは大手テック企業だけではない。オープンソースメンテナー、中小企業のCISO、国家インフラ運営者こそがこの技術の真の受益者となるべきだ」と語り、より広範な民主化を志向していることを示した。
「ジャギッド・フロンティア」 ― AI防衛能力の偏りと新たなリスク
セキュリティ研究企業AISLEは、Mythos以降のAIサイバーセキュリティを「ジャギッド・フロンティア(ギザギザの最前線)」と表現した。AIの防衛能力が均等に分布するのではなく、特定の領域では人間を大きく上回り、別の領域では依然として人間の判断が必要という不均衡な状態が続くからだ。
たとえばMemory Safety系の脆弱性(Buffer Overflow・Use-After-Free等)の発見ではMythosは人間のトップハッカーを凌駕する一方、ビジネスロジックの欠陥やソーシャルエンジニアリング耐性の評価などでは依然として人間の専門家が必要だ。この偏りは、組織がAIと人間をどう組み合わせるかというセキュリティオペレーションの設計に大きな影響を与える。
さらに深刻な懸念は「防衛の非対称的脱出」だ。ProjectGlasswingやTACがどれほど厳格に審査しても、モデルの重みが流出・複製されるリスクはゼロではない。Council on Foreign Relationsの論考はこれを「AIサイバーセキュリティの核抑止問題」と喩え、「Mythos級の能力を持つモデルが敵対国家や犯罪組織の手に渡った瞬間、世界のインフラは前例のない脆弱性にさらされる」と警告している。
地政学的含意 ― 中国への敵対的蒸留対策
この文脈で理解すべきなのが、4月6日にOpenAI・Anthropic・GoogleがFrontier Model Forumを通じて発表した「中国による敵対的蒸留への対抗連携」だ。敵対的蒸留とは、競合他社が利用規約に違反して既存モデルの出力を大量収集し、自社モデルの訓練に使う行為を指す。
3社が競合関係を一時棚上げして協力する背景には、Mythos級モデルの能力が国家安全保障上の戦略資産となったという現実認識がある。米国政府関係者もこの動きを歓迎しており、輸出規制・クラウド基盤への地理的制限・API使用監査という多層的な「AI防衛インフラ」の構築が水面下で進んでいると報じられている。
一方で中国側も独自のフロンティアモデル開発を加速させており、DeepSeek・Qwen・Baiduなどが相次いで高性能モデルをリリースしている。AIサイバーセキュリティ競争は、もはや技術的問題ではなく地政学的競争の一局面として扱われる時代に突入した。
批判的視点 ― 「PRスタント」疑惑と透明性への要求
すべての専門家がMythosとGlasswingを歓迎しているわけではない。Mashableは複数のセキュリティ研究者の見解を引用し、「Anthropicの発表は実態以上に誇張されたPRスタントの可能性がある」との懐疑論を紹介している。
具体的な批判点は以下の通りだ:
- 再現性の欠如:Mythos Previewの能力は外部研究者が独立検証できない。Anthropic自身が公表したベンチマーク結果のみが情報源だ。
- 「17年前の脆弱性」の意義:FreeBSD NFS脆弱性は確かに長期間潜伏していたが、すでに修正パッチが利用可能な領域であり、「真のゼロデイ」ではない可能性がある。
- 選定プロセスの不透明性:40社の選定基準、API利用状況の監査メカニズム、悪用時の対応プロトコルなどが公開されていない。
これらの批判はAI業界全体が直面する「能力と透明性のトレードオフ」という根本課題を反映している。最先端AIの能力を公開すれば攻撃者を利するリスクがあるが、公開しなければ科学的検証が不可能になる。このジレンマへの標準的な回答はまだ確立されていない。
企業と個人が取るべき対応 ― 今日からできる3つのアクション
Mythos・GPT-5.4-Cyber時代において、企業および個人セキュリティ担当者が取るべき実践的アクションを整理する。
1. パッチ管理の超加速化:Project Glasswingが発見したゼロデイ脆弱性のパッチは従来より短いサイクルで提供される可能性が高い。Microsoft・Apple・主要Linuxディストリビューションのセキュリティアップデートを24時間以内に適用する運用体制が業界標準になる見込みだ。
2. サプライチェーンセキュリティの棚卸し:Mythosが発見する脆弱性の多くは、OSSライブラリやサードパーティコンポーネントに潜在している可能性が高い。SBOM(Software Bill of Materials)の整備・依存関係の可視化・自動脆弱性スキャンの統合が必須となる。
3. AI防衛ツールへの早期評価と投資:TACプログラムへのアクセスは簡単には得られないが、Claude Code・Copilot Security・Semgrep等のAI強化セキュリティツールの導入は今すぐ可能だ。2026年後半にはGPT-5.4-Cyber級の能力を持つ商用セキュリティ製品が登場すると予想されており、その導入準備が組織の競争力を左右する。
まとめ ― AIがセキュリティの「常識」を書き換える年
2026年4月の一連の発表は、単なる新モデルの登場ではなく、AIサイバーセキュリティという領域のパラダイムシフトを意味する。Claude MythosとGPT-5.4-Cyberの登場により、以下の構造的変化が進行している:
- 防衛AIと攻撃AIの境界の曖昧化:同じモデルが防衛にも攻撃にも使える両刃の剣となり、配布管理が安全保障上の核心課題となった。
- AIラボのセキュリティ業界への直接関与:AnthropicとOpenAIはもはや「API提供者」ではなく、サイバー防衛エコシステムの主要プレイヤーとして行動している。
- 地政学化するAI競争:米中間のAI競争がサイバーセキュリティ領域で最も先鋭化しており、フロンティアモデルは戦略兵器としての側面を持つようになった。
一方で未解決の課題は山積している。透明性と能力のトレードオフ、モデル流出リスクへの備え、TACやGlasswingに参加できない中小組織への影響、そして最も根本的な問いとして「AIの能力があるしきい値を超えた時、それを誰がどのようにガバナンスするのか」。これらの問いへの答えは、おそらく2026年後半から2027年にかけて、業界標準や規制フレームワークという形で徐々に姿を現すだろう。
AIがサイバーセキュリティの常識を書き換える年、2026年。その最初の章が今、始まった。
参照元
Anthropic: Project Glasswinganthropic.com
TechCrunch: Anthropic Mythostechcrunch.com
CyberScoop: GPT-5.4-Cybercyberscoop.com