生成AI

AIの巨人たちが動く:$30B収益・中国AI対抗連合・エッジ推論革命

AnthropicがGoogleとBroadcomとの大型TPUディールで年間収益ランレートが$30Bを突破、同時にOpenAI・Google・Anthropicが中国モデルコピーへの共同対抗を開始した。

1. AnthropicがGoogleとBroadcomの巨大コンピュートディールを締結、年収$30B超え

Anthropicは2026年4月6日、GoogleおよびBroadcomとの大規模なコンピュートリソース拡張契約を発表した。この契約により、2027年以降AnthropicはBroadcom経由でGoogleのTPU(テンソル処理ユニット)に対し約3.5ギガワット相当のキャパシティにアクセスできるようになる。現在2026年に供給されている1ギガワットから3.5倍以上の拡張となる。

同社によれば、年間収益ランレートはすでに300億ドル(約4.5兆円)を突破。これはわずか3か月前の2025年末の90億ドルから3倍以上の急成長であり、AIビジネス市場での急速な普及を示している。年間100万ドル以上を投じるエンタープライズ顧客は1,000社を超えており、BtoB需要が爆発的に拡大している。Broadcomは別途Googleとも2031年まで続くネットワーキング部品および次世代TPUチップの長期供給契約を締結した。

このディールの背景には、Claude AIモデルへの需要が想定を大幅に上回るペースで伸び続けているという現実がある。コンピュートリソースの確保は今やAI企業の競争力の根幹であり、Anthropicは収益の急成長に裏付けられた形で、長期的なインフラ基盤を一気に固めた形だ。2027年以降に稼働予定の新たなTPUキャパシティは、Claude次世代モデルのトレーニングと推論の両面を支える。


2. OpenAI・Anthropic・Googleが「中国AIモデルコピー」への共同対抗を開始

米国のAI三大巨頭、OpenAI・Anthropic・Googleは、中国のAI企業による「敵対的蒸留(Adversarial Distillation)」に対抗するため、Frontier Model Forum(FMF)を通じた脅威インテリジェンス共有を開始したことを明らかにした。これはサイバーセキュリティ分野での脅威情報共有のモデルを、AI知的財産保護に応用したものだ。

蒸留とは、既存の高性能AIモデルの出力を大量に取得し、それを教師データとして安価なコピーモデルを訓練する手法を指す。Anthropicはすでに2万4,000件以上の偽アカウントを通じてClaudeの知識が抜き取られていたと報告しており、DeepSeek・Moonshot・MiniMaxがこうした行為に関与していたと名指しした。OpenAIも2月に米議会で、DeepSeekが米国モデルからのデータ抽出に高度化した手法を使っていると証言していた。

FMFは2023年にOpenAI・Google・Microsoft・Anthropicの4社で設立した業界団体であり、今回は単なる倫理的連携を超え、実際の知的財産保護のための実務的な脅威インテリジェンス共有という形に発展した。一社が攻撃パターンを検知したらFMFを通じて他社に即座に共有する仕組みとなっており、これは競合他社同士が安全保障・知財保護を目的に手を組む異例の動きとして注目されている。


3. GoogleがエッジデバイスLLM推論フレームワーク「LiteRT-LM」を公開

Googleは2026年4月8日、エッジデバイス上でLLMを高性能に動作させるためのオープンソース推論フレームワーク「LiteRT-LM」を正式リリースした。スマートフォンやIoTデバイスといったリソース制約の大きなハードウェアと、複雑なLLMの間のギャップを埋めることを目的とした本番対応の実装基盤だ。

LiteRT-LMは従来のLiteRTをLLMの推論に特化して最適化したもので、量子化・キャッシュ管理・並列処理の各レイヤーをエッジ環境向けに調整している。クラウドAPIへのネットワーク接続なしにデバイス内で推論できることで、レイテンシ・プライバシー・オフライン動作の三点でエッジAIの競争力が高まる。Googleは同フレームワークをAndroidエコシステムと深く統合していく方針を示しており、Pixel端末などでの活用が期待される。

エッジ推論はAIの民主化において重要な役割を担う。クラウド依存から脱却し、デバイス上でのリアルタイム推論が普及すれば、医療・製造・農業など通信インフラが不安定な環境でもAIが機能する未来に近づく。Meta Llama 4 Scoutのような軽量モデルとLiteRT-LMのようなフレームワークが組み合わさることで、エッジAIエコシステムの急成長が見込まれる。


4. MetaがLlama 4 Scoutをオープンソース公開、170億パラメータでGPU1枚動作

Metaは170億パラメータのビジョン・ランゲージモデル「Llama 4 Scout」をオープンソースとして公開した。コンシューマー向けGPU(VRAM 24GB)または Apple M4 Pro 1台でフル速度動作が可能で、競合するクローズドモデルと比肩するビジョンベンチマーク性能を示しているという。

Scout はエッジ・ローカル環境での展開を強く意識した設計となっており、視覚理解能力と自然言語処理を1モデルで統合している。動画・画像・テキストを横断したマルチモーダルなタスク処理が可能で、ハードウェアの壁を大幅に下げながら高い性能を実現している点が評価されている。Metaのオープンウェイト戦略はLlama 3以降に継続されており、企業や研究機関がコスト負担なく先端モデルにアクセスできる環境を作り続けている。

商用利用可能なオープンウェイトの強力なビジョン言語モデルの登場は、プロダクト開発者・研究者双方にとって大きな福音だ。特に画像認識・文書解析・映像理解を必要とするエンタープライズアプリケーションでの採用が加速するとみられ、Hugging Faceなどのプラットフォームを通じた応用事例の爆発的な増加が見込まれる。


5. DeepSeek V3.2がIMO・IOI 2026でゴールドメダル相当の数学性能を達成

DeepSeekは最新モデルV3.2の特定バリアント(V3.2-Speciale)が、数学オリンピック(IMO 2026)・情報オリンピック(IOI 2026)・中国数学オリンピック(CMO 2026)・ICPC世界大会のすべてでゴールドメダル相当の性能を達成したと発表した。推論能力において Gemini 3.0-Pro に匹敵しつつ、GPT-5 を複数の重要ベンチマークで上回ったとしている。

V3.2は一般目的モデルとして速度と日常タスク最適化を重視した設計だが、数学・コーディング分野における高水準な推論能力も兼ね備えている。西側諸国の同等モデルと比較して価格が約70%低い点も引き続き特徴であり、API利用コストの低さは中小企業や個人開発者への普及を加速させる要因となっている。DeepSeekは当初のR2(専用推論モデル)の開発が遅延しているとの報告もあるなか、V3.2系での性能向上で存在感を示した形だ。


6. Anthropicがサードパーティツール経由のClaude利用を制限、API鍵必須化へ

Anthropicは2026年4月5日より、OpenClawなどのサードパーティツール経由でのClaudeサブスクリプション利用を制限する措置を開始した。継続して利用するにはAPIキーの取得または追加利用パッケージの購入が必要となり、無制限的なサードパーティ経由のアクセスが事実上封鎖された形だ。

この措置の背景には「持続不可能な需要」があるとされており、Claudeへのアクセス需要がインフラの許容量を上回るほど急増していることが窺える。ユーザー側には利便性の低下という影響があるが、AnthropicにとってはAPIエコノミーを通じた直接的な収益化とリソースの適正配分を両立させる施策でもある。年間収益が$30Bを突破した一方で、需要管理の問題は依然として重要な経営課題として浮き彫りになっている。