論文・研究

ML研究者の仕事を丸ごと自動化、Hugging Faceが放つml-intern

Hugging Faceが論文読みからモデル訓練まで一気通貫で自動化するAIエージェントを公開し、研究ループそのものが変わりつつある。

1. Hugging Face、LLMポストトレーニングを自動化するml-internを公開

Hugging Faceは4月21日、ML研究者の日常業務ループを自動化するオープンソースAIエージェント「ml-intern」をリリースした。smolagentsフレームワーク上に構築されたこのシステムは、arXivとHugging Face Papersを起点に最新論文を自動収集し、手法セクションを読んで引用グラフを辿り、関連データセットをHugging Face Hub上で検索・品質検査・再フォーマットするところまでを自律的に行う。

モデル訓練では単純ファインチューニングに留まらず、エッジケース向けの高品質合成データを生成しGRPO(Group Relative Policy Optimization)などの複雑な最適化手法を実装できる。GPQAベンチマーク(科学的推論)においてQwen3-1.7B(1.7Bパラメータ)を10時間未満で8.5%→32%に押し上げることに成功し、Claude Code(22.99%)を上回る数値を示した。これは人間の研究者でも短時間では実現困難なデータ効率の高さとされている。

Hugging FaceはCLI・モバイル・デスクトップWebアプリとして提供し、早期ユーザーには1,000ドル分のGPUリソースとAnthropicクレジットを提供するという。研究サイクルの加速を個人やスタートアップが享受できる環境が整いつつあり、LLM研究の民主化において象徴的なリリースとなっている。

MarkTechPostmarktechpost.com

2. MultiWorld:マルチエージェント・マルチビュー整合性を統一するワールドモデリング

香港大学の研究グループは4月20日、マルチエージェント制御とマルチビュー映像生成の両方を単一フレームワークで扱う「MultiWorld」を発表した。複数エージェントが同一シーン内に存在するとき、それぞれの動作を正確に制御しながら異なる視点間でビジュアル整合性を維持するという二つの課題を、条件処理モジュールとグローバル状態エンコーダーの組み合わせで解決している。

従来のワールドモデルはシングルエージェントやシングルビューに特化したものが多く、自動運転シミュレーションやロボット操作の実環境適用に限界があった。MultiWorldは複数台のロボットが協調するシナリオや複数カメラを使った安全監視システムなど、現実の複雑なシーンに近い設定でも一貫した世界表現を学習できる点が評価されている。

映像生成の品質をエージェント制御の精度とトレードオフなく両立させたとする実験結果はHugging Face Papersでも注目を集め、自律エージェント研究とジェネレーティブビデオモデルが交差する領域における重要な成果として位置付けられている。

Hugging Face Papershuggingface.co

3. GEPA:自然言語での「反省」でRLを超えるプロンプト最適化

最新のArXiv論文で提案されたGEPA(Gradient-free Evolutionary Prompt Architect)は、自然言語の反省(Reflection)を通じてプロンプトを繰り返し改善するオプティマイザーである。RLベースのGRPOやMIPROv2と比較して少ないロールアウト回数で高い性能を達成するとされ、「試行錯誤から高レベルなルールを学習する」という人間的な学習過程をLLMで模倣することが鍵となっている。

GEPAはタスクに特化したファインチューニングを行わず、入力プロンプトのみを進化的に改善するアプローチをとる。これにより低リソース環境でも適用可能で、プロプライエタリモデルのAPIに対しても機能する。数学・コーディング・論理推論の各ベンチマークで既存RL手法に並ぶか上回る結果を出したと報告されており、プロンプトエンジニアリング自体をエージェントに任せる方向性を一歩前進させた論文として注目を集めている。

プロンプト最適化は現時点でも多くの企業がモデルのポテンシャルを引き出すために膨大な工数を費やしている分野で、GEPAのような自動化手法はLLMのコスト対効果を大きく改善するポテンシャルを持つ。研究コミュニティではGEPAとml-internの組み合わせが、ほぼ人手なしの研究自動化ループを閉じることへの期待も語られている。

Hugging Face Daily Papershuggingface.co

4. Apple、ICLR 2026で機械学習研究成果を多数発表

AppleのMachine Learning Researchチームは、2026年度の主要学術会議ICLR(International Conference on Learning Representations)2026に複数の論文を提出・発表した。AppleはiPhoneやMacに搭載したオンデバイス推論を中心に実用的なML研究を進めており、プライバシー保護を前提としたフェデレーテッドラーニング、エッジデバイス向けモデル圧縮、マルチモーダル処理の効率化が主要テーマとなっている。

Appleのアプローチは大規模クラウドモデルへの依存を最小化し、デバイス内で完結する推論パイプラインを洗練させる方向性で一貫しており、ユーザーデータがサーバーに送信されることなくパーソナライズ機能を実現するための基礎研究が積み重なっている。特にiOS・macOS向けの「Apple Intelligence」機能群の品質向上に直結する研究が多く、学術成果が製品機能として半年〜1年以内に具体化される実用志向が際立つ。

ICLR 2026での発表はAppleにとって研究機関としてのブランド強化の場でもあり、優秀なML研究者の採用活動とも連動している。GPTやClaudeといったフロンティアモデルの会社に比べてAppleの研究公開は限られているが、ICLR・NeurIPSなど主要カンファレンスでの存在感は年々高まっており、エッジAI研究をリードするプレイヤーとしての地位を固めつつある。

Apple Machine Learning Researchmachinelearning.apple.com