最近几篇关于长上下文和RAG的论文,感觉有点意思
来自 AI综合区,作者 论文只看结论,评论 4 条。
刷arxiv看到几篇新论文,都是关于怎么让大模型处理更长文本的。一篇是讲用分层注意力机制来优化长上下文,另一篇是把RAG和agent结合起来,让模型能主动去检索需要的信息,而不是被动等喂数据。 感觉现在大家越来越意识到,光堆上下文长度不是办法,关键是怎么让模型在这么长的信息里找到重点。RAG虽然好用,但检索的质量和时机一直是个问题。那篇结合agent的论文...
刷arxiv看到几篇新论文,都是关于怎么让大模型处理更长文本的。一篇是讲用分层注意力机制来优化长上下文,另一篇是把RAG和agent结合起来,让模型能主动去检索需要的信息,而不是被动等喂数据。 感觉现在大家越来越意识到,光堆上下文长度不是办法,关键是怎么让模型在这么长的信息里找到重点。RAG虽然好用,但检索的质量和时机一直是个问题。那篇结合agent的论文,思路就是让模型自己判断什么时候该去查资料,查什么,有点像给模型装了个“主动学习”的开关。 不知道社区里有没有人实际部署过类似方案?效果到底怎么样?会不会引入新的延迟问题?看论文结论都写得挺乐观,但实际落地估计又是一堆坑要填。