Wink Pings

Meta的REFRAG框架:30倍速的LLM,16倍长的上下文,零精度损失

Meta Superintelligence Labs推出的REFRAG框架,解决了长上下文处理中的效率问题,实现了30倍的速度提升和16倍的上下文扩展,同时保持精度不变。

Meta Superintelligence Labs最近推出的REFRAG框架,可能是AI行业的一个重大突破。这个框架的核心在于解决了长上下文处理中的效率问题:文档长度增加两倍,AI的处理速度可能下降四倍。REFRAG通过跳过不相关的计算,实现了30倍的速度提升,同时保持了精度不变。

此外,REFRAG还能将上下文大小扩展16倍,让模型能够处理更多的信息。在RAG系统、对话和长文档任务中的测试表明,REFRAG的表现优于LLaMA和其他顶级模型,证明了速度和规模可以兼得。

有人质疑这是否只是对压缩理论的重新发现,但无论如何,这一技术的实际应用效果令人印象深刻。Meta的投资似乎已经开始见效。

![Image 1](https://wink.run/image?url=https%3A%2F%2Fpbs.twimg.com%2Fmedia%2FG0Ln-l_XAAAO_nB%3Fformat%3Djpg%26name%3Dlarge)

论文链接:[arxiv.org/pdf/2509.01092](https://arxiv.org/pdf/2509.01092)

发布时间: 2025-09-07 06:20