生成AI

OpenAI8520億ドル評価額・Gemma4公開・Anthropicサブスク終了の波紋

OpenAIが852億ドル評価額で1220億ドルの資金調達を完了し、Google DeepMindはGemma 4オープンモデルを投入、AnthropicはサードパーティエージェントへのClaudeサブスク利用を終了した

1. OpenAI、8520億ドル評価額で1220億ドルの大型資金調達を完了

OpenAIが2026年最大の資金調達ラウンドを締結した。SoftBankとAndreessen Horowitzが共同リードし、Amazon・NVIDIA・Microsoftも参加する形で1220億ドルを調達、企業評価額は8520億ドルに達した。週間アクティブユーザー数は9億人を突破し、年間換算収益は250億ドルに達している。同社はこの資金を次世代推論インフラの整備とo3/o4シリーズの量産体制に充てる方針だ。非上場のまま世界トップクラスの企業評価額に達したことは前例がなく、IPOに向けた議論も再燃している。AIインフラへの資本集中がさらに加速する中、競合他社も対抗資金調達の動きを加速させると見られている。

2. OpenAI、GPT-4oを全プランから正式退役——4月3日付で完全終了

OpenAIはGPT-4oをすべてのプランから正式に退役させた。2024年に「マルチモーダルの標準」として市場を席巻したフラッグシップモデルが、わずか2年で世代交代を迎えた。後継となるGPT-4.5・o3・o4-miniが主力ポジションを担う形となり、APIを通じてGPT-4oを利用していた企業や開発者は移行対応を迫られている。退役と同時にOpenAIはリーダーシップの再編も実施し、COOのBrad Lightcapが特別プロジェクト担当として直接CEOのSam Altmanへ報告する体制に移行した。モデルのライフサイクルが急速に短縮されるAI業界の現実が改めて浮き彫りとなり、企業のAI依存度管理における課題が広く議論されている。

3. Google DeepMind、Gemma 4をリリース——エッジデバイスで動くオープンモデルの最高峰へ

Google DeepMindがオープンウェイトモデルシリーズ「Gemma」の最新版Gemma 4を公開した。高度な推論と複雑なエージェントワークフローに最適化されたマルチモーダルモデルで、スマートフォン・Raspberry Pi・NVIDIA Jetson Orin Nanoといったエッジデバイス上でほぼゼロレイテンシーで動作する点が特筆される。オフライン動作能力により、プライバシー要件が厳しい医療・金融・製造現場への展開が現実味を帯びた。クラウドAPIに依存しない推論エコシステムの構築を促進するオープン戦略は、Metaのllama系列と直接競合する位置づけだ。Hugging Faceでのモデル公開直後からダウンロード数が急増しており、開発者コミュニティからの注目度は極めて高い。

4. Google DeepMind「AlphaEvolve」——LLMがゲーム理論アルゴリズムを自律改良、専門家を超える

Google DeepMindが発表したAlphaEvolveは、LLMを用いた進化的コーディングエージェントで、アルゴリズムの新バリアントを完全自律で発見する仕組みだ。ゲーム理論アルゴリズムの改良に適用したところ、人間の専門家が手設計した最先端ベースラインと同等以上の性能を示した。人間の介入なしにアルゴリズム研究の一部を代替できることを示した点で、科学的発見の自動化における重要なマイルストーンとなる。数学的最適化・組み合わせ問題・計算複雑性理論への応用も視野に入っており、理論計算機科学の分野でもAI研究が加速する兆しを見せている。この成果はSakana AIのAI Scientist v2と並び、AIによる科学研究の自律化という大きなトレンドを裏付けるものだ。

5. Anthropic、サードパーティエージェントツールへのClaudeサブスク利用を4月4日付で終了

Anthropicは4月4日をもって、Claude Pro・MaxサブスクリプションによるOpenClawなどのサードパーティAIエージェントフレームワークへのアクセスを遮断した。月額定額プランから従量課金制への強制移行となり、ユーザーによっては月額費用が最大50倍に膨れ上がるケースも発生している。Anthropicは一時的なクレジット付与と割引を提供したが、コミュニティからは強い反発の声が上がっている。エージェント利用の急増に伴うインフラコスト増大を収益モデルに反映させる動きとして業界から注目されており、他社の追随も予想される。サブスクリプション型AIサービスの持続可能なビジネスモデルとはどうあるべきか、改めて議論が巻き起こっている。

6. NVIDIA「Vera Rubin」プラットフォームを発表——H300 GPUでAIスケールの壁を突破へ

NVIDIAが次世代AIハードウェアプラットフォーム「Vera Rubin」を発表した。新型H300 GPUを搭載し、処理能力とメモリ帯域幅を大幅向上させることで、兆パラメータ規模のモデルのスケーリング要件に対応する。現行のH100/H200が依然として品薄状態にある中での次世代発表は、AIインフラ投資の勢いが衰えないことを示している。DatacenterやHyperscaler向けのデプロイを主眼に置きながら、ロボティクスや自律型エージェントの大規模展開にも最適化されている。半導体サプライチェーンの再編が続く中、NVIDIAがAIハードウェアにおける主導権をさらに強固にする可能性が高い。

7. MIT研究:新手法でLLM訓練効率を70〜210%向上——推論モデルのトレーニングを革新

MITの研究チームが、推論モデルのトレーニングを70〜210%加速させる新手法を発表した。小型・高速なモデルが大型推論LLMの出力を予測し、大型モデルがそれを検証するという分業構造を取ることで、トレーニングパイプライン中のダウンタイムを活用し全体の計算量を削減する仕組みだ。精度を維持しながらこれほどの効率向上を達成した研究は珍しく、今後のフロンティアモデル開発コストの低減に直結する可能性がある。大規模モデルの訓練コストが依然として業界全体の課題となっている中、このような効率化技術の実用化が進めば、開発競争の構図が大きく変わるかもしれない。OpenAIやAnthropicといった主要ラボへの技術移転や採用も期待される。

8. Anthropic、Message Batches APIのmax_tokensを30万に引き上げ——大規模バッチ処理が現実的に

Anthropicが Message Batches API における max_tokens の上限を300,000トークンに拡大した。Claude Opus 4.6とSonnet 4.6が対象で、企業向けの大規模文書処理・コード解析・データ抽出ワークフローで実用性が大幅に向上した。一方で、Claude Sonnet 4.5とClaude Sonnet 4に対する100万トークンコンテキストウィンドウのベータ提供が4月30日で終了する旨も合わせて発表された。APIの進化と機能整理が同時進行するAnthropicのプロダクト戦略は、Claude 3系から4系への完全移行を促進する方向性を示しており、エンタープライズ顧客への対応強化が鮮明になっている。