Meta的REFRAG框架:30倍速的LLM,16倍长的上下文,零精度损失
Meta Superintelligence Labs推出的REFRAG框架,解决了长上下文处理中的效率问题,实现了30倍的速度提升和16倍的上下文扩展,同时保持精度不变。
Meta Superintelligence Labs最近推出的REFRAG框架,可能是AI行业的一个重大突破。这个框架的核心在于解决了长上下文处理中的效率问题:文档长度增加两倍,AI的处理速度可能下降四倍。REFRAG通过跳过不相关的计算,实现了30倍的速度提升,同时保持了精度不变。
此外,REFRAG还能将上下文大小扩展16倍,让模型能够处理更多的信息。在RAG系统、对话和长文档任务中的测试表明,REFRAG的表现优于LLaMA和其他顶级模型,证明了速度和规模可以兼得。
有人质疑这是否只是对压缩理论的重新发现,但无论如何,这一技术的实际应用效果令人印象深刻。Meta的投资似乎已经开始见效。

论文链接:[arxiv.org/pdf/2509.01092](https://arxiv.org/pdf/2509.01092)
发布时间: 2025-09-07 06:20