論文・研究
KVキャッシュ革命からマルチモーダルRAGまで——LLM推論効率化と知識検索の最前線
GoogleのTurboQuantがKVキャッシュを6倍圧縮してH100で8倍高速化し、CloudflareはPrefill/Decode分離アーキテクチャで推論コストを刷新。マルチモーダルRAGやMollifier Layers・LLM-Emuなど、LLMの効率・精度・評価を根本から変える研究が続々公開された。
GoogleのTurboQuantがKVキャッシュを6倍圧縮してH100で8倍高速化し、CloudflareはPrefill/Decode分離アーキテクチャで推論コストを刷新。マルチモーダルRAGやMollifier Layers・LLM-Emuなど、LLMの効率・精度・評価を根本から変える研究が続々公開された。
Anthropicが開発者向けカンファレンス「Code with Claude」を今日開幕、CloudflareはAgents Week 2026でAIエージェント向けインフラを一挙公開、DeepSeek V4が長コンテキストと低価格で再び業界を揺さぶった。