エージェント時代が本格到来——Google・Anthropic・Claude Codeが動く
Google Cloud Next '26でエージェント基盤が一挙公開され、AnthropicはAmazonと巨額インフラ契約を締結、Claude Codeは1か月で30超のリリースを重ねた。
1. Google Cloud Next ‘26:エージェントが「アーキテクチャ」になった日
2026年4月22〜24日にラスベガスで開催されたGoogle Cloud Next ‘26は、エージェントAIをただのデモから実業務インフラへと昇格させる大量の発表で幕を開けた。目玉はGemini Enterprise Agent Platformで、コード不要のAgent Designer、長時間タスクを処理するLong-Running Agents、Inboxによるアクティビティ管理など、エンタープライズが求める一通りの機能を揃えた。開発者向けには200以上のモデル(AnthropicのClaudeを含む)にアクセスできるVertex AI 2.0と、マルチプラットフォームのエージェント連携を可能にするAgent2Agent(A2A)プロトコルの本番対応版が公開された。インフラ面では第8世代TPUを発表。TPU 8tが超高速の学習に、TPU 8iが推論コスト80%改善に特化する。さらにGoogleはパートナー支援に7億5000万ドルを拠出し、12万社超のエコシステムでのエージェント展開を後押しする。
2. AnthropicとAmazon、5ギガワット・最大250億ドルの超大型契約を締結
Anthropicは4月20日、AmazonによるAWS経由の追加投資50億ドル(将来200億ドルまで)の受け入れと、10年間で1000億ドル超をAWSに支出するコミットメントを発表した。対価として確保するのは最大5GWのコンピューティング容量で、Trainium2が2026年上半期から、Trainium3は年末にかけて合計1GW近くが稼働予定だ。Anthropicの年間収益換算は300億ドルを突破しており、企業・開発者需要と個人ユーザーの急増が背景にある。GoogleやBroadcomとも複数GW規模の容量確保を進めており、モデル需要を支えるインフラ競争が加速している。この規模の先行投資は、次世代Claudeモデルのトレーニングコストが現行比で桁違いに大きいことを示唆している。
3. Claude Code、5週間で30超のリリース——4月の主要アップデートまとめ
Anthropicのターミナル型AIコーディングツール「Claude Code」は、4月だけで30を超えるアップデートをリリースし、開発者コミュニティで注目を集めている。4月20日のアップデートでは大容量ファイルのセッション再開が高速化し、MCPのスタートアップ最適化、端末スクロールの改善、インタラクティブなプログレスインジケーターが追加された。モデル選択の永続化(プロジェクトピンより優先)や、サブエージェントのフォーク機能(CLAUDE_CODE_FORK_SUBAGENT=1)も実装された。セキュリティ面ではシステムクリティカルなファイル操作のサンドボックス強化が施され、コスト内訳の可視化やデバッグ効率化も強化された。Claude Codeは現在、LMSYS ChatbotArenaでもトップクラスの評価を受けるClaude Opus 4.6をバックエンドに使用しており、SWE-bench Verified 65.3%という記録的スコアを実現している。
4. Google DeepMindが「ストライクチーム」結成——Anthropicのコーディング能力に追いつけ
サーゲイ・ブリンが内部メモを通じてGoogle DeepMind内に専門チームを組成した事実が報じられた。目的は一点集中——Anthropicに対して広がるAIコーディング能力のギャップを急速に縮めることだ。メモには「エージェント実行とモデルを主要開発者にする変革を急がなければならない」と記されており、経営トップの危機意識が透けて見える。背景にあるのはClaude Opus 4.6のSWE-benchスコア65.3%という数値で、GPT-5.4やGemini 3.1 Proを上回る評価がChatbot Arenaで積み上がっている現実だ。Googleは独自モデル群(Gemma 4など)を抱えながら、コーディングエージェント特化の競争において出遅れているとの認識を持っていることが、今回の動きで浮き彫りになった。
5. Gemma 4:Apache 2.0ライセンスで31Bモデルが400Bクラスに対抗
Googleが3月末にリリースしたGemma 4は、4月に入って業界内での評価が確立しつつある。E2B・E4B・26B MoE・31B Denseの4サイズ展開で、Apache 2.0ライセンスにより商用利用・改変・再配布が完全フリー。全モデルがネイティブで映像・画像を処理し、E2BとE4Bは音声入力にも対応する。特筆すべきはパラメータ効率で、31Bモデルは現時点でLMSYS Arenaオープンモデルランキング3位を獲得、26Bモデルが6位に続く。MoEアーキテクチャを活用した26Bモデルは、モデル規模の20倍以上のモデルに匹敵するとされ、エッジデプロイやリソース制限環境での活用を大きく前進させる可能性がある。エージェントワークフローへの最適化も設計段階から組み込まれている。
6. OpenAI・Anthropic・Googleが中国の「蒸留攻撃」に共同対処
3社が協調してAIモデルの不正蒸留(distillation)対策に乗り出していることが報じられた。Frontier Model Forumを通じた情報共有により、米国の最先端モデルから中国競合が結果を抽出して自社モデルを強化する「アドバーサリアル蒸留」を検知・遮断する仕組みを構築している。3社は普段ビジネス上の競合関係にあるが、知的財産の保護と国家安全保障上の懸念が共通利害として機能した。GLM-5.1(中国系)がSWE-Bench Proで欧米トップモデルに匹敵するとの報告があり、蒸留の影響を疑う声も業界に出ている。今後、モデルAPIへのアクセス制御やレートリミット強化が各社で進む見込みだ。