RAG 进阶之路7:REFRAG 机制应对长上下文挑战
之前的文章中,我们从基础设施(Milvus)、语义核心(BGE)、到代码落地(LangChain)以及应用层优化(Small-to-Big/HyDE),构建了一套完整的 RAG 知识体系。 然而,AI 领域的变化是指数级的。随着 Claude 3 支持 200k 上下文,Gemini 1.5 Pro 甚至支持到 1M token,一种论调开始流行:“RAG 已死,Long Context (长上下文) 才是未来。” 毕竟,如果能把整本《红楼梦》或整个公司的知识库直接塞进 Prompt 里,还需要费劲地做切片、建索引、搞检索吗? 但现实是骨感的。“能放进去”不代表“能跑得动”。 把海量文本直接喂给…