在当今大模型领域,Transformer架构占据着主导地位。然而,尽管Transformer非常强大,但它的计算需求随着文本长度呈平方级增长,这导致运行成本高昂,同时限制了其扩展能力。
与此相对,更为古老的RNN(循环神经网络)架构虽然计算效率高,但通常无法达到Transformer的性能水平,并且训练过程更为复杂和缓慢。
在这一背景下,由元始智能创始人彭博提出了RWKV架构。RWKV融合了Transformer和RNN的优点,在训练阶段可以像Transformer那样并行计算,在推理阶段又能像RNN那样高效运行。随着发展,RWKV现已成为隶属于Linux基金会的开源非盈利组织,其代码、模型和文档均公开透明,核心项目RWKV-LM在GitHub上开源,形成了一个活跃的开发者社区。
自2021年8月首个实验性版本RWKV-V1发布以来,RWKV架构经历了多次重要迭代。它最初是对传统循环神经网络的改良尝试,旨在解决处理长文本时的效率问题。2023年,RWKV-4实现了关键突破,使其能够在普通硬件环境下高效处理各种语言和长篇文本。此后,RWKV逐渐被纳入主流AI工具库,RWKV社区的开发者甚至发现微软Windows系统在Office组件更新后内置了RWKV的运行库。
刚刚发布论文的RWKV-7是这一架构的最新进展,它采用创新的动态状态演化技术,支持100多种语言,能够编写代码,处理超长文本。RWKV-7系列发布了七个预训练模型,参数规模从0.19亿到29亿不等,训练token数量从1.6万亿到5.6万亿不等,适应不同应用场景的需求。
彭博称RWKV-7设计灵感来自于“第一性原理”,核心想法是:模型的内部世界必须持续拟合外部世界。
这听起来有点抽象,但我们可以把它想象成一个“聪明的学生”在学习和适应环境的过程。QKV-softmax-attention(常见于 transformer 模型),它的做法是把所有“问题-答案”对放在一起,然后通过比较新问题 q 和每个“问题” k 的相似度,来决定答案是什么。就像小学生每次考试前,把课本里的所有题目都翻一遍,找到和新问题最像的那个,再写下答案。
而 RWKV-7 的方法不是每次都去翻课本,而是直接从这些“问题-答案”对中动态学到一个“变换规则”(k -> v 的映射)。这个规则就像小学生自己总结出的解题技巧,遇到新问题时,直接用这个技巧推导出答案。
性能验证:超同尺寸模型
RWKV-的7创新在实际性能测试中也得到了验证,在训练数据远低于 Qwen2.5、Llama3.2 等开源模型的前提下,RWKV-7-World 模型的语言建模能力在所有开源 3B 规模模型中达到 SoTA 水平。
RWKV团队采用 Uncheatable Eval 方法——利用 2025 年 1 月之后的最新论文、新闻文章等实时数据,测试开源大语言模型的真实建模能力和泛化能力。
评测结果显示,在同等参数规模的前沿模型中,RWKV-7 依然具备强竞争力,展现出优秀的适应性和泛化性能。团队正在训练数据更多的 RWKV7-G1 系列模型,目标是在这个榜单同样超越所有其他前沿模型。
技术创新:动态状态演化
RWKV-7究竟通过哪些技术创新实现了这些令人印象深刻的性能表现呢?根据由社区成员联合撰写的RWKV-7架构论文《RWKV-7 "Goose" with Expressive Dynamic State Evolution》,RWKV-7引入了一项名为“表达性动态状态演化”的关键创新,这是其性能提升的核心所在 。具体来说,RWKV-7通过引入一种广义化的delta规则,使模型能更好地理解和处理信息。
RWKV-7在读取新信息时,有一种特殊的方式来更新其记忆,有点像记笔记。这种特殊的方式被称为“广义 Delta 规则”。
把模型想象成有一个草稿本,它在上面记录了从目前为止的文本中学到的东西。当它看到一个新的词或信息时,它需要决定如何更新这个草稿本。
最初的“Delta 规则”擦除一点它为该键存储的旧信息,并添加一点新信息。它擦除和添加的数量由一个简单的数字控制。现在,RWKV-7 的规则是“广义的”,这意味着它更灵活、更强大。它不是只用一个数字来决定为一个键擦除和添加多少信息,而是使用更详细的指令。
通过引入广义Delta Rule,RWKV-7 使用 2 层即可实现 复杂度的 状态跟踪问题,使用 4 层即可识别所有正则语言。
简单来说,Transformers在处理这些“正则语言”时有局限性。它们的能力被限制在一个叫 TC0 的计算类别里。TC0 就像是一个只能用固定步骤解决问题的工具箱,遇到某些复杂任务时就显得力不从心。
而RWKV-7可以用固定的层数(也就是固定的计算步骤)处理所有正则语言。这意味着,不管语言规则有多复杂。
这个能力听起来很理论,但实际上特别有用。RWKV-7 能更高效地解决一些需要“跟踪状态”的问题。什么是“跟踪状态”呢?举个例子:
在读一个长故事时,记住谁做了什么、事情是怎么发展的;
在理解一句复杂句子时,搞清楚每个词之间的关系。
这些任务需要模型一边读一边更新自己的“记忆”。RWKV-7 靠它的“状态矩阵”来做到这一点。你可以把“状态矩阵”想象成一个记事本,模型会在这上面记下看到的信息,还能灵活地“交换”信息或者改变记录的方式(专业点叫“状态转换函数”)。
应用方面,RWKV-7适用于语言建模和多模态应用,其高效处理长上下文的能力使其在文档摘要、对话系统和代码生成等领域具有优势。其无注意力机制和恒定内存使用也使其适合资源受限的设备,潜在扩展到边缘计算场景。
RWKV-7开发团队已规划了明确的技术发展方向,计划通过扩充训练数据集来支持更大规模模型的训练,同时将致力于增强模型的思维链推理能力。
团队还将评估采用DeepSeek近期研究中验证有效的前沿技术,包括混合专家模型(MoE)架构、多token预测技术和FP8精度训练等优化方案。
为了促进开放性、可复现性和采用,RWKV-7开发团队在Hugging Face上发布了模型和数据集组件列表,并在GitHub上发布了训练和推理代码,所有这些资源均在Apache 2.0许可下提供,允许广泛应用于研究和商业项目。
超越Transformer
Transformer广泛用于自然语言处理和其他领域,但它在处理长序列时存在显著的局限性。例如,对于百万级别的上下文窗口,Transformer 的性能会显著下降,限制了其在实际应用中的可扩展性。对于需要低延迟或在资源受限设备上运行的场景(如移动设备或实时系统),Transformer 的高计算成本和内存消耗成为瓶颈。
Mamba是另一个获得相当多关注的 Transformer 替代方案,Transformer 如此流行,以至于提出它们的原始论文自发表以来的 8 年间获得了超过 17.1 万次引用,而提出 LSTM 的 1997 年论文则有 12.2 万次引用。Mamba 论文有 2537 次引用,RetNet 有 350 次,xLSTM 有 31次,RWKV论文有510次引用,而谷歌DeepMind最新提出的Titans架构只有12次引用。
类似RWKV-7这样的发展,即使还不会完全颠覆现有的范式,也会推动这一领域的进一步发展,AI的未来不仅将由更大的模型塑造,还将由更智能的架构设计引领。