Claude Opus 4.7とDeepSeek V4がAI競争を加速させた週
AnthropicのOpus 4.7リリースとClaude Code品質問題のポストモーテム、DeepSeekの1.6兆パラメータモデル登場が業界を揺るがした
1. Claude Opus 4.7正式リリース——高解像度ビジョンとタスクバジェット機能を搭載
Anthropicは2026年4月16日、最上位モデル「Claude Opus 4.7」を一般公開した。最大の目玉は高解像度画像サポートで、最大解像度が従来の1568px(1.15MP)から2576px(3.75MP)へと大幅に拡張され、OCRや図表読み取りなど高精度なビジョンタスクが可能になった。もう一つの新機能「タスクバジェット」は、エージェントループ全体で使用するトークン数の目安をClaudeに伝える仕組みで、長大なタスクを適切に優先順位付けしながら予算内に収める制御を実現する。コーディング性能も向上しており、93問のベンチマークでOpus 4.6比13%の解決率アップを記録、前モデルでは解けなかった4問が新たに解決された。1Mトークンのコンテキストウィンドウと128k出力トークンに対応し、価格はOpus 4.6と同じく入力100万トークンあたり5ドル、出力100万トークンあたり25ドルを維持している。Amazon Bedrock、Google Vertex AI、Microsoft Foundryでも利用可能だ。
2. Anthropicが公式ポストモーテムを発表——Claude Codeの品質低下は3つのエンジニアリングミスが原因
Anthropicは4月23日、Claude Codeの品質低下に関する社内調査の結果を公式ブログで公開した。3月から4月にかけてユーザーが報告していたパフォーマンス劣化の原因として、3つの独立した変更が特定された。まず3月4日に「推論努力レベル」をhighからmediumに引き下げたことでレイテンシは下がったが応答品質も低下した。次に3月26日のキャッシュ最適化に含まれていたバグにより、セッション中に推論履歴が毎ターン消去され、モデルが「物忘れ」しているように見えるとともにユーザーの使用量上限が想定以上の速度で消費される問題が発生した。さらに4月16日には応答を1ツールコール間25語以内に制限するシステムプロンプトが追加され、コーディング品質を著しく損なったため4日後に差し戻された。Anthropicはこれら3つの問題を4月20日までにすべて修正し、全サブスクライバーの使用量上限をリセットすると発表した。しかし、数週間にわたって問題を認めなかった対応への不満からサブスクリプションを解約するユーザーも多く、信頼回復には時間がかかりそうだ。
3. AnthropicがProプランからClaude Codeを一時削除——24時間以内に撤回
Anthropicは4月21日、月額20ドルのProプランからClaude Codeを静かに削除した。数時間以内にユーザーが気づき、SNS上で批判が殺到。Anthropicは翌22日、これは新規ユーザーの約2%を対象とした小規模テストだったと説明し、23日にはプライシングページにClaude Codeのチェックボックスを復活させた。背景には、Claude Code利用者の急増によるコスト圧力と、上位プランへの誘導という戦略的意図があるとみられる。TechCrunchの報道によれば、Anthropicは以前から「OpenClaw」などのサードパーティインテグレーションを使用するClaude Codeサブスクライバーには追加料金が必要になると通知しており、Proプランの収益化について継続的に見直しを行っている模様だ。この一連の出来事はClaude Codeの品質低下問題と重なり、ユーザーの不信感をさらに高める結果となった。
4. Google Gemma 4登場——Apache 2.0ライセンスで4サイズ展開、エッジから256Kコンテキストまで対応
Googleは4月2日、オープンウェイトモデルシリーズ「Gemma 4」を公開した。Gemini 3と同一技術基盤に構築され、Effective 2B(E2B)、Effective 4B(E4B)、26B MoE、31B Denseの4サイズが提供される。エッジ向けE2B・E4Bはネイティブ音声入力に対応し、より大きな26B・31Bモデルは最大256Kのコンテキストウィンドウを持つ。全モデルが140以上の言語でトレーニングされており、画像・動画をネイティブに処理できるマルチモーダル設計だ。Arena AIリーダーボードでは31BモデルがオープンモデルTop3入りを果たし、26BはTop6に位置している。ライセンスはApache 2.0で商業利用も自由に許可されており、エンタープライズや個人開発者が制限なく活用できる。Hugging Faceや各種クラウドプロバイダーでも即時利用可能になっており、オープンソースAIエコシステムの底上げに大きく貢献するリリースと評価されている。
5. DeepSeek V4-Proプレビュー——1.6兆パラメータのMoEモデルがGPT-5.4に肉薄
DeepSeekは4月24日、V4シリーズのプレビューを公開した。旗艦モデルDeepSeek-V4-Proは総パラメータ数1.6兆(アクティブ490億)のMixture-of-Expertsアーキテクチャを採用し、現存するオープンウェイトモデルとして最大規模を誇る。V4-Flashは284億パラメータで、どちらも100万トークンのコンテキストウィンドウを備えMITライセンスで公開されている。ベンチマーク上でV4-Proはコーディング競技においてGPT-5.4と「同等」と主張しており、推論系タスクでもOpenAIのGPT-5.2やGemini 3.0 Proを一部で上回る結果が示された。価格はV4 Flashが入力100万トークンあたり0.14ドル、V4 Proが同0.145ドルとコスト競争力も高い。中国発のAIモデルが欧米最高水準に迫るこの動きは、AI競争のグローバル化をあらためて示すものとして業界から注目を集めている。
6. Hugging Faceが「ml-intern」を公開——LLMポストトレーニングを自動化するオープンソースエージェント
Hugging Faceは4月25日、LLMのポストトレーニングワークフローを自動化するオープンソースエージェント「ml-intern」を公開した。このエージェントはarXivとHugging Face Papersを自律的にブラウジングして論文の手法セクションを読み込み、引用グラフを辿って関連データセットや技術を特定する。次にHugging Face Hub上でデータセットを検索し品質を検査、トレーニング用に整形してモデルのファインチューニングまで実行できる。MLエンジニアが数日かけて行う反復的な作業を数時間に圧縮することを目指しており、研究者やスタートアップのプロトタイピングサイクルを大幅に短縮する可能性を持つ。オープンソースであるため、コミュニティによる拡張や特定ドメインへの適応も容易で、今後の機能追加が期待されている。AI開発の民主化という観点で、LLM研究参入のハードルをさらに下げる重要なツールとなりそうだ。