生成AI

Claude障害・Spud待機・AMI創設—プラットフォーム戦争の最前線

Anthropicがquota drain問題とソースコード誤公開インシデントの詳細を説明し、Claude Managed Agentsがパブリックベータに突入。OpenAIの次世代モデルSpudはPolymarketで4月内リリース78%と迫っている。

1. Anthropic公式発表:Claude Codeのquota drain問題はキャッシュ変更とは無関係

4月13日、The Registerが報じたAnthropicの公式見解によると、一部のClaude Codeユーザーが体験していたクォータ消費の急増(いわゆる”quota drain”)は、サーバーサイドのキャッシュ設定変更が原因ではないという。Anthropicは「キャッシュに関するいくつかの変更が問題を引き起こしたように見えたかもしれないが、実際の原因は別にある」と説明した。ユーザー側ではMCPツール呼び出しの増加やエージェントモードの多用がトークン消費を加速させているケースが多く、特にサブエージェントを多数並列稼働させるワークフローでの使いすぎが目立つという。Anthropicは現在、過剰消費を防ぐためのレート制御UIの改善を進めており、詳細な使用量ダッシュボードの提供も予定している。開発者からはよりきめ細かいモデル別・ツール別のコスト可視化を求める声が上がっており、今後のClaude Code改善の優先課題となりそうだ。コスト管理と機能の豊富さのバランスをどう取るかが、有料ユーザー定着のカギを握る。

2. Claude Managed Agentsがパブリックベータ開始—セキュアなサンドボックスと組み込みツールで自律エージェントを提供

Anthropicは4月上旬、エージェント実行基盤「Claude Managed Agents」のパブリックベータを開始した。これはClaudeを自律エージェントとして動かすためのフルマネージドハーネスで、セキュアなサンドボックス環境・組み込みツール(ウェブ検索、コード実行、ファイル操作など)・Server-Sent Eventによるリアルタイムストリーミングを標準提供する。開発者はエージェントのインフラ管理を自前で行う必要がなく、プロンプトとツール定義を渡すだけでClaudeが複数ステップにわたるタスクを自律的に実行できる。APIエンドポイントは/v1/agents/v1/sessionsで提供されており、既存のAnthropicSDKからシームレスに呼び出せる設計だ。また、セッション単位でのメモリ管理や権限スコープの制御も可能で、エンタープライズ向けのセキュリティ要件を満たす。LangChain・CrewAIなどの既存エージェントフレームワークとの統合も視野に入れたエコシステム拡張が進んでおり、Anthropicのエンタープライズ戦略の重要な柱となっている。

3. OpenAI”Spud”の事前学習完了—Polymarketが4月中リリースに78%の確率を付ける

OpenAIが社内コードネーム”Spud”と呼ぶ次世代モデル(GPT-5.5あるいはGPT-6として正式リリースされる見込み)が、3月24日頃に事前学習を完了したことが複数のソースから報じられた。Sam AltmanはOpenAI社員に対し「非常に強力なモデルであり、経済を本当に加速させる可能性がある」と述べたという。Polymarketでは4月30日までのリリースに78%、6月30日までに95%以上の確率が付けられており、4月14日〜5月5日がリリースウィンドウの最頻値とされている。Spudはマルチモーダル・コンピュータ利用・コーディング能力の飛躍的向上を目指しており、OpenAIが構想する「統合スーパーアプリ」の中核モデルとして位置付けられている。Claude Opus 4.6がLMSYS Chatbot Arenaで首位に立った直後のリリースとなれば、AIリーダーシップ争いがさらに白熱する。技術的先行者優位を確保しつつ安全性テストを完了できるかが焦点となっており、AI安全コミュニティからも注視されている。

4. Claude Opus 4.6がLMSYS Chatbot Arenaで首位—SWE-bench 65.3%でソフトウェアエンジニアリング能力を証明

Anthropicの最新フラッグシップモデルClaude Opus 4.6が、LMSYS Chatbot Arenaで首位を獲得した。GPT-5.4やGemini 3.1 Proを上回るスコアを記録し、特にエージェント型ソフトウェアエンジニアリングの進歩を反映したSWE-bench Verified(実際のGitHubイシューを解決するベンチマーク)では65.3%という過去最高スコアを達成している。この数字は2024年初頭に最先端モデルが達成していた約4%から見ると圧倒的な進歩であり、自律的なコード修正・テスト生成・バグ診断能力が実用水準に到達していることを示す。Claude Code、Cursor、その他のAIコーディングアシスタントのバックエンドとして活用されるケースが増えており、企業のソフトウェア開発コスト削減への直接的な貢献が期待されている。一方でHumanity’s Last Exam(HLE)など人間の専門知識水準を問う難関ベンチマークでは依然として上位モデルでも60〜70%前後にとどまっており、AGIへの道のりの険しさも浮き彫りになっている。

5. AMI Labs(Yann LeCun創設)がシードで10億ドル超を調達—LLMに代わる「世界モデル」構築へ

チューリング賞受賞者のYann LeCunが創設したAdvanced Machine Intelligence(AMI)Labsが、シードラウンドで10億3000万ドル(評価額35億ドル)の資金調達に成功した。AMI Labsが目指すのは、大規模言語モデル(LLM)とは根本的に異なるアーキテクチャである「世界モデル(World Models)」の構築だ。LLMがトークンの統計的パターンに依存するのに対し、世界モデルは物理的世界の構造・因果関係・時間的連続性をより明示的に学習することを目指している。LeCunはLLMが汎用人工知能(AGI)への道では根本的に不十分だと繰り返し主張してきており、AMI Labsはその代替アーキテクチャを商業化する組織として位置付けられる。シード段階での10億ドル超という調達額はAI分野でも異例の規模であり、OpenAI・Anthropic・Googleが独占するAI研究の主要プレイヤーに新たな競合が加わる形となる。資金が「世界モデル」の実現に向けてどう使われるか、研究コミュニティから大きな注目が集まっている。

6. Anthropic、Claude Codeソースコード誤公開インシデントを詳細説明—顧客データの漏洩はなし

4月7日頃に浮上したAnthropicのClaude Codeソースコード誤公開インシデントについて、同社は公式に「あるClaude Codeのリリースに内部ソースコードが含まれていた。機密性の高い顧客データや認証情報は含まれておらず、漏洩もしていない」と説明した。同社はこれを「人的ミスによるリリースパッケージングの問題であり、セキュリティ侵害ではない」と位置付けている。影響を受けたリリースは既に修正版に置き換えられており、ユーザーへの直接的な被害は報告されていない。ただし、競合他社やセキュリティ研究者が内部実装の一部を目にした可能性があり、知的財産の観点からは懸念が残る。オープンソースコミュニティからは「むしろ完全公開に踏み切ればよいのでは」という声も上がっており、Anthropicのソフトウェア開発プロセスとリリース管理体制への注目度が高まっている。AIシステムの透明性と競争優位のバランスをめぐる議論を再び呼び起こす出来事となった。