AIが自ら論文を書いてICLRを通過・コード生成の推論革命・DeepSeek V4の衝撃
Sakana AIのAI Scientist-v2がAI生成論文として初めてピアレビューを通過し、コード生成・3D再構成・材料科学など複数分野で重要な研究が相次いで発表された
1. AI Scientist-v2:AI生成論文が初めてICLRワークショップのピアレビューを通過
Sakana AIが開発したAI Scientist-v2が、完全自律で科学論文を執筆しICLRワークショップに投稿、査読スコアで人間論文の採択平均値を上回った。人間が書いたコードテンプレートを一切使わず、仮説立案・実験設計・実行・結果解析・論文執筆までを一貫して行うエンドツーエンドの自律システムだ。内部では新規の「プログレッシブ・アジェンティック・ツリーサーチ」手法を用い、実験管理エージェントが全プロセスを統括する。AI生成論文がピアレビューを通過したのは科学史上初とされており、研究の民主化と再現性危機の双方に大きな議論を投げかけている。研究者の役割と機械の関係を問い直す歴史的なマイルストーンとして世界中から注目が集まっている。
2. THINK-ANYWHERE:LLMがコード生成中に任意位置で推論を挿入——LeetCodeで9.3ポイント向上
北京大学とAlibabaが共同開発したTHINK-ANYWHEREは、LLMがコード生成のどの位置でも必要に応じてトークンレベルの推論を発動できる仕組みを提案する研究だ。従来の「先に考えてから生成する」連鎖思考(CoT)アプローチとは根本的に異なり、エントロピーが高い不確実な箇所でのみ推論を集中的に行う適応型アーキテクチャを実現した。コールドスタートの模倣学習と強化学習の組み合わせで訓練され、LeetCode・LiveCodeBench・HumanEval・MBPPで最高水準の性能を達成した(LeetCodeで絶対9.3ポイント向上)。コード生成におけるチェーン・オブ・ソートの本質的な限界を突いた研究として、プログラミングAIの次世代設計に影響を与える可能性が高い。
3. UniRecGen:3D再構成と生成を統合した新アーキテクチャ——疎な入力から高忠実度の3Dを実現
UniRecGenは、フィードフォワード型3D再構成と拡散ベースの生成を共有カノニカル空間内で統合した新しいアーキテクチャだ。従来手法では座標系やトレーニング目的関数の競合が課題だったが、「分離協調学習」によってこの問題を解決した。再構成モジュールが幾何学的アンカーを提供し、拡散生成器が潜在拡張条件付けで形状を精緻化・補完する二段構成により、疎な入力からでも高品質の3Dを生成できる。既存手法を大幅に上回る忠実度と堅牢性を達成しており、3Dコンテンツ制作・体現AIロボット・デジタルツイン構築への応用が期待される。ゲーム・映像・製造業でのリアルタイム3D生成パイプラインへの組み込みも視野に入る。
4. DeepSeek V4:1兆パラメータMoEモデルがHuaweiチップで動作——クローズドモデルの27分の1のコスト
DeepSeekが投入したV4は約1兆パラメータの混合エキスパート(MoE)モデルだが、1トークンあたりの有効パラメータは370億に抑えられている。コンテキストウィンドウ100万トークン、テキスト・画像・動画・音声のネイティブマルチモーダル対応を備え、SWE-bench Verifiedで80%超を達成した。特筆すべきは、NVIDIA GPUではなくHuawei Ascendチップ上で訓練されていることと、入力コスト0.28ドル/Mトークンという価格設定——同水準の閉じたモデルと比較して約27倍安い。完全オープンソースで公開されており、非NVIDIA環境でのフロンティアモデル構築が実現可能であることを証明した。AI開発における地政学的・インフラ的な多様化を象徴する研究開発成果として注目されている。
5. LLaMat:30億トークンで材料科学を専門化したLLM——Nature Machine Intelligenceに掲載
Nature Machine Intelligenceに掲載されたLLaMat研究は、LLaMAモデルを約400万件の材料科学論文と結晶学データベースから構成される30億トークンで継続学習し、さらに17万5,000件の質問応答ペアで指示チューニングを施したドメイン特化型LLMシリーズだ。材料設計・結晶構造予測・物性推定といった高度な専門タスクで汎用LLMを大幅に上回る性能を示した。汎用LLMを効率的に科学専門モデルへ転換する手法を実証しており、LLaMat の手法論は医療・法律・量子化学など他の専門分野にも応用できる。少ないデータと計算資源で専門領域の専門家レベルに達するアプローチとして、科学AIの民主化に貢献する研究成果として高く評価されている。
6. BiJEPA:双方向JEPA拡張による対称的自己教師あり表現学習の新地平
BiJEPAはMeta AIが先行研究で確立したJEPA(Joint Embedding Predictive Architecture)フレームワークを双方向予測に拡張した研究だ。従来のJEPAは一方向の予測しか行えない非対称な設計だったが、BiJEPAでは両方向からの予測を同時に最適化することで対称的な自己教師あり表現を学習できる。視覚エンコーダの事前学習において、特に幾何学的・意味的な整合性が求められるタスクで優位性を示した。自己教師あり視覚学習の基礎アーキテクチャへの貢献として、マルチモーダル基盤モデルの次世代設計に影響を与える可能性がある。ICLR 2026においてもJEPA系アーキテクチャの注目度は高く、視覚・言語・ロボティクス分野での応用研究が活発化している。