谷歌团队发表在ICLR 2025的新研究《Sufficient Context: A New Lens on Retrieval Augmented Generation Systems》,首次提出「充分上下文」(Sufficient Context)的核心概念,为这个行业痛点提供了全新解法,甚至能让Gemini、GPT等主流模型的正确回答率提升2-10%。
北京大学林宙辰、王奕森团队的论文《Language Ranker: A Lightweight Ranking Framework for LLM Decoding》提出了一种全新的视角:将大模型的解码过程类比为推荐系统中的排序阶段(Ranking Stage)。这一视角揭示了现有解码方法的局限,并据此提出了高效、轻量的改进方案。