1 1 2 2 3 3 4 4 5 5 文集 深度 号外 热文 时间线
2025-03-24 12:09

无需Attention的未来,RWKV-7能成为替代Transformer的那只黑天鹅吗?

本文来自微信公众号:硅星GenAI (ID:gh_e06235300f0d),作者:周一笑


在当今大模型领域,Transformer架构占据着主导地位。然而,尽管Transformer非常强大,但它的计算需求随着文本长度呈平方级增长,这导致运行成本高昂,同时限制了其扩展能力。


与此相对,更为古老的RNN(循环神经网络)架构虽然计算效率高,但通常无法达到Transformer的性能水平,并且训练过程更为复杂和缓慢。


在这一背景下,由元始智能创始人彭博提出了RWKV架构。RWKV融合了Transformer和RNN的优点,在训练阶段可以像Transformer那样并行计算,在推理阶段又能像RNN那样高效运行。随着发展,RWKV现已成为隶属于Linux基金会的开源非盈利组织,其代码、模型和文档均公开透明,核心项目RWKV-LM在GitHub上开源,形成了一个活跃的开发者社区。


自2021年8月首个实验性版本RWKV-V1发布以来,RWKV架构经历了多次重要迭代。它最初是对传统循环神经网络的改良尝试,旨在解决处理长文本时的效率问题。2023年,RWKV-4实现了关键突破,使其能够在普通硬件环境下高效处理各种语言和长篇文本。此后,RWKV逐渐被纳入主流AI工具库,RWKV社区的开发者甚至发现微软Windows系统在Office组件更新后内置了RWKV的运行库。


刚刚发布论文的RWKV-7是这一架构的最新进展,它采用创新的动态状态演化技术,支持100多种语言,能够编写代码,处理超长文本。RWKV-7系列发布了七个预训练模型,参数规模从0.19亿到29亿不等,训练token数量从1.6万亿到5.6万亿不等,适应不同应用场景的需求。


彭博称RWKV-7设计灵感来自“第一性原理”,核心想法是:模型的内部世界必须持续拟合外部世界。



这听起来有点抽象,但我们可以把它想象成一个“聪明的学生”在学习和适应环境的过程。QKV-softmax-attention(常见于transformer模型),它的做法是把所有“问题-答案”对放在一起,然后通过比较新问题q和每个“问题”k的相似度,来决定答案是什么。就像小学生每次考试前,把课本里的所有题目都翻一遍,找到和新问题最像的那个,再写下答案。


而RWKV-7的方法不是每次都去翻课本,而是直接从这些“问题-答案”对中动态学到一个“变换规则”(k->v的映射)。这个规则就像小学生自己总结出的解题技巧,遇到新问题时,直接用这个技巧推导出答案。


一、性能验证:超同尺寸模型


RWKV-的7创新在实际性能测试中也得到了验证,在训练数据远低于Qwen2.5、Llama3.2等开源模型的前提下,RWKV-7-World模型的语言建模能力在所有开源3B规模模型中达到SoTA水平。



RWKV团队采用Uncheatable Eval方法——利用2025年1月之后的最新论文、新闻文章等实时数据,测试开源大语言模型的真实建模能力和泛化能力。



评测结果显示,在同等参数规模的前沿模型中,RWKV-7依然具备强竞争力,展现出优秀的适应性和泛化性能。团队正在训练数据更多的RWKV7-G1系列模型,目标是在这个榜单同样超越所有其他前沿模型。


二、技术创新:动态状态演化


RWKV-7究竟通过哪些技术创新实现了这些令人印象深刻的性能表现呢?根据由社区成员联合撰写的RWKV-7架构论文《RWKV-7 "Goose" with Expressive Dynamic State Evolution》,RWKV-7引入了一项名为“表达性动态状态演化”的关键创新,这是其性能提升的核心所在。具体来说,RWKV-7通过引入一种广义化的delta规则,使模型能更好地理解和处理信息。


RWKV-7在读取新信息时,有一种特殊的方式来更新其记忆,有点像记笔记。这种特殊的方式被称为“广义Delta规则”。


把模型想象成一个草稿本,它在上面记录了从目前为止的文本中学到的东西。当它看到一个新的词或信息时,它需要决定如何更新这个草稿本。


最初的“Delta规则”擦除一点它为该键存储的旧信息,并添加一点新信息。它擦除和添加的数量由一个简单的数字控制。现在,RWKV-7的规则是“广义的”,这意味着它更灵活、更强大。它不是只用一个数字来决定为一个键擦除和添加多少信息,而是使用更详细的指令。


通过引入广义Delta Rule,RWKV-7使用2层即可实现复杂度的状态跟踪问题,使用4层即可识别所有正则语言。


简单来说,Transformers在处理这些“正则语言”时有局限性。它们的能力被限制在一个叫TC0的计算类别里。TC0就像是一个只能用固定步骤解决问题的工具箱,遇到某些复杂任务时就显得力不从心。


而RWKV-7可以用固定的层数(也就是固定的计算步骤)处理所有正则语言。这意味着,不管语言规则有多复杂。


这个能力听起来很理论,但实际上特别有用。RWKV-7能更高效地解决一些需要“跟踪状态”的问题。什么是“跟踪状态”呢?举个例子:


在读一个长故事时,记住谁做了什么、事情是怎么发展的;


在理解一句复杂句子时,搞清楚每个词之间的关系。


这些任务需要模型一边读一边更新自己的“记忆”。RWKV-7靠它的“状态矩阵”来做到这一点。你可以把“状态矩阵”想象成一个记事本,模型会在这上面记下看到的信息,还能灵活地“交换”信息或者改变记录的方式(专业点叫“状态转换函数”)。


Hugging Face上的RWKV Gradio Demo提供了0.1B模型的交互体验


应用方面,RWKV-7适用于语言建模和多模态应用,其高效处理长上下文的能力使其在文档摘要、对话系统和代码生成等领域具有优势。其无注意力机制和恒定内存使用也使其适合资源受限的设备,潜在扩展到边缘计算场景。


RWKV-7开发团队已规划了明确的技术发展方向,计划通过扩充训练数据集来支持更大规模模型的训练,同时将致力于增强模型的思维链推理能力。


团队还将评估采用DeepSeek近期研究中验证有效的前沿技术,包括混合专家模型(MoE)架构、多token预测技术和FP8精度训练等优化方案。


为了促进开放性、可复现性和采用,RWKV-7开发团队在Hugging Face上发布了模型和数据集组件列表,并在GitHub上发布了训练和推理代码,所有这些资源均在Apache 2.0许可下提供,允许广泛应用于研究和商业项目。


三、超越Transformer


Transformer广泛用于自然语言处理和其他领域,但它在处理长序列时存在显著的局限性。例如,对于百万级别的上下文窗口,Transformer的性能会显著下降,限制了其在实际应用中的可扩展性。对于需要低延迟或在资源受限设备上运行的场景(如移动设备或实时系统),Transformer的高计算成本和内存消耗成为瓶颈。


Mamba是另一个获得相当多关注的Transformer替代方案,Transformer如此流行,以至于提出它们的原始论文自发表以来的8年间获得了超过17.1万次引用,而提出LSTM的1997年论文则有12.2万次引用。Mamba论文有2537次引用,RetNet有350次,xLSTM有31次,RWKV论文有510次引用,而谷歌DeepMind最新提出的Titans架构只有12次引用。


类似RWKV-7这样的发展,即使还不会完全颠覆现有的范式,也会推动这一领域的进一步发展,AI的未来不仅将由更大的模型塑造,还将由更智能的架构设计引领。

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定