論文・研究
KVキャッシュ革命からマルチモーダルRAGまで——LLM推論効率化と知識検索の最前線
GoogleのTurboQuantがKVキャッシュを6倍圧縮してH100で8倍高速化し、CloudflareはPrefill/Decode分離アーキテクチャで推論コストを刷新。マルチモーダルRAGやMollifier Layers・LLM-Emuなど、LLMの効率・精度・評価を根本から変える研究が続々公開された。
GoogleのTurboQuantがKVキャッシュを6倍圧縮してH100で8倍高速化し、CloudflareはPrefill/Decode分離アーキテクチャで推論コストを刷新。マルチモーダルRAGやMollifier Layers・LLM-Emuなど、LLMの効率・精度・評価を根本から変える研究が続々公開された。
AIが完全自律で学術論文を執筆し査読を通過した歴史的な成果が報告された一方、LightRAGやMem0など記憶・検索系の実用研究もHugging Faceでトレンド入り