論文・研究
KVキャッシュ革命からマルチモーダルRAGまで——LLM推論効率化と知識検索の最前線
GoogleのTurboQuantがKVキャッシュを6倍圧縮してH100で8倍高速化し、CloudflareはPrefill/Decode分離アーキテクチャで推論コストを刷新。マルチモーダルRAGやMollifier Layers・LLM-Emuなど、LLMの効率・精度・評価を根本から変える研究が続々公開された。
GoogleのTurboQuantがKVキャッシュを6倍圧縮してH100で8倍高速化し、CloudflareはPrefill/Decode分離アーキテクチャで推論コストを刷新。マルチモーダルRAGやMollifier Layers・LLM-Emuなど、LLMの効率・精度・評価を根本から変える研究が続々公開された。
SakanaAIのAI Scientist v2が完全自動生成論文でILCRワークショップの査読を通過し、Natureへの掲載が実現した
arXivの最新論文群がAIエージェントの推論構造・強化学習の安全性・分散モデル推論基盤を多角的に解剖し、次世代AIシステム設計の課題を浮き彫りにした。