作者 | 陈骏达
编辑 | 李水青
昨晚,DeepSeek 再度开创历史!
智东西 9 月 18 日报道,9 月 17 日,由 DeepSeek 团队共同完成、梁文锋担任通讯作者的 DeepSeek-R1 推理模型研究论文,登上了国际权威期刊《自然(Nature)》的封面。
DeepSeek-R1 论文首次公开了仅靠强化学习,就能激发大模型推理能力的重要研究成果,启发全球 AI 研究者;这一模型还成为全球最受欢迎的开源推理模型,Hugging Face 下载量超 1090 万次。此番获得《自然》的认证,可谓是实至名归。
与此同时,DeepSeek-R1 也是全球首个经过同行评审的主流大语言模型。《自然》在社论中高度评价道:几乎所有主流的大模型都还没有经过独立同行评审,这一空白"终于被 DeepSeek 打破"。
《自然》认为,在 AI 行业中,未经证实的说法和炒作已经"司空见惯",而 DeepSeek 所做的一切,都是"迈向透明度和可重复性的可喜一步"。
《自然》杂志封面标题:自助——强化学习教会大模型自我改进
发表在《自然》杂志的新版 DeepSeek-R1 论文,与今年 1 月未经同行评审的初版有较大差异,披露了更多模型训练的细节,并正面回应了模型发布之初的蒸馏质疑。
发表在《自然》杂志的 DeepSeek-R1 论文
在长达 64 页的同行评审文件中,DeepSeek 介绍,DeepSeek-V3 Base(DeepSeek-R1 的基座模型)使用的数据全部来自互联网,虽然可能包含 GPT-4 生成的结果,但绝非有意而为之,更没有专门的蒸馏环节。
DeepSeek 也在补充材料中提供了训练过程中减轻数据污染的详细流程,以证明模型并未在训练数据中有意包含基准测试,从而提升模型表现。
此外,DeepSeek 对 DeepSeek-R1 的安全性进行了全面评估,证明其安全性领先同期发布的前沿模型。
《自然》杂志认为,随着 AI 技术日渐普及,大模型厂商们无法验证的宣传可能对社会带来真实风险。依靠独立研究人员进行的同行评审,是抑制 AI 行业过度炒作的一种有效方式。
一、新版论文披露多个重要信息,R1 安全性获全面评估
在了解新版论文的变化前,我们有必要先回顾下 DeepSeek-R1 论文的核心内容。
DeepSeek-R1 的研究出发点,是当时困扰 AI 业内的一个重大问题。众所周知,推理能提升大语言模型的能力,但让模型在后训练阶段通过数据学习思维链轨迹,严重依赖人工标注,限制了可扩展性。
DeepSeek 尝试通过强化学习,让模型自我演化发展出推理能力。在 DeepSeek-V3 Base 的基础上,DeepSeek 使用 GRPO 作为强化学习框架,仅使用最终预测结果与真实答案的正确性作为奖励信号,未对推理过程施加限制,最终构建出 DeepSeek-R1-Zero。
DeepSeek-R1-Zero 通过强化学习成功掌握了改进的推理策略,倾向于生成更长的回答,每个回答中包含验证、反思和探索备选方案。
DeepSeek-R1-Zero 答题正确率随着推理长度提升,模型训练中总体回答长度也不断提升
DeepSeek 在 DeepSeek-R1-Zero 的基础上,采用多阶段训练结合 RL、拒绝采样和监督微调,开发出 DeepSeek-R1,使模型既具备强推理能力,又能更好贴合人类偏好。此外,团队还蒸馏出小型模型并公开发布,为研究社区提供了可用资源,推动思维链推理模型的发展与应用。
除了上述主要科研成果外,在最新版的论文和其他材料中,DeepSeek 新增了不少补充信息,让外界更深入地了解到模型训练和运作的细节。
基准测试数据污染是一个极为敏感的问题——如果厂商在训练时有意或无意包含了基准测试和相关答案,就很有可能导致模型在相关测试上的得分异常偏高,影响基准测试评分的公正性。
DeepSeek 透露,为了防止基准测试数据污染,其已对 DeepSeek-R1 的预训练和后训练数据都实施了全面的去污染措施。以数学领域为例,仅在预训练数据中,DeepSeek 的去污染流程就识别并删除了约六百万条潜在文本。
在后训练阶段,数学相关的数据均来自 2023 年之前的竞赛,并采用与预训练相同的过滤策略,确保训练数据与评测数据完全不重叠。这些措施保证了模型评测结果能够真实反映其解决问题的能力,而非对测试数据的记忆。
不过,DeepSeek 也承认这种去污染方法无法完全防止对测试集的改写,因此在 2024 年之前发布的部分基准测试仍可能存在污染问题。
DeepSeek 还为 DeepSeek-R1 新增了一份全面的安全报告。报告提到,DeepSeek-R1 在服务部署中引入了外部风险控制系统,不仅可以基于关键词匹配识别不安全对话,还使用 DeepSeek-V3 直接进行风险审查,判断是否应拒绝响应。DeepSeek 建议开发者在使用 DeepSeek-R1 时,部署类似的风险控制系统。
在公开安全基准测试和内部安全研究中,DeepSeek-R1 在大多数基准上超过了 Claude-3.7-Sonnet、GPT-4o 等前沿模型。开源部署版本的安全性虽不及具备外部风险控制系统的版本,但仍拥有中等水平的安全保障。
DeepSeek-R1 发布之初,曾有传闻称该模型使用了 OpenAI 的模型进行蒸馏,这也出现在审稿人的提问中。
对此,DeepSeek 做出了正面回应,称 DeepSeek-V3-Base 的预训练数据全部来源于网络,反映自然数据分布,"可能包含由先进模型(如 GPT-4)生成的内容",但 DeepSeek-V3-Base 并没有引入在合成数据集上进行大规模监督蒸馏的"冷却"阶段。
DeepSeek-V3-Base 的数据截止时间为 2024 年 7 月,当时尚未发布任何公开的先进推理模型,这进一步降低了从现有推理模型中无意蒸馏的可能性。
更重要的是,DeepSeek-R1 论文的核心贡献,也就是 R1-Zero,不涉及从先进模型进行蒸馏。其强化学习(RL)组件是独立训练的,不依赖于 GPT-4 或其他类似能力模型的输出或指导。
二、R1 论文开创大模型科研新范式,《自然》盛赞其填补空白
在社论中,《自然》详细地分析了 DeepSeek-R1 经历完整同行评审流程,并登上期刊的价值。
大模型正在迅速改变人类获取知识的方式,然而,目前最主流的大模型都没有在研究期刊中经历过独立的同行评审,这是一个严重的空白。
同行评审出版物有助于阐明大模型的工作原理,也有助于业内评估大模型的表现是否与厂商宣传的一致。
DeepSeek 改变了这一现状。DeepSeek 在今年 2 月 14 日将 DeepSeek-R1 论文提交至《自然》,而直到 7 月 17 日才被接收,9 月 17 日正式发布。
在这一过程中,有 8 位外部专家参与了同行评审,对这项工作的原创性、方法和鲁棒性进行了评估。在最终发布的版本中,审稿报告与作者回复都被一并披露。
智东西也深入研读了 DeepSeek-R1 论文的审稿意见与作者回复。这份文件长达 64 页,接近论文本身篇幅的 3 倍。
DeepSeek 同行评审材料封面
8 位审稿人共提出上百条具体意见,既包括对单词单复数等细节的修改,也涵盖对论文中将 AI "拟人化"的警示,以及对数据污染和模型安全性问题的关注。
例如,在下方修改意见中,审稿人敏锐地捕捉到了"将 DeepSeek-R1-Zero 开源"这一表述的模糊性,并提醒 DeepSeek,"开源"这一概念的界定仍存争议,在使用相关表述时需要格外注意。
这位审稿人还要求 DeepSeek 在论文中附上 SFT 和 RL 数据的链接,而不仅仅是提供数据样本。
一位审稿人的部分修改意见
DeepSeek 认真回应了审稿人提出的每一个问题,前文提到的多个章节与补充信息,正是在审稿人的建议下新增的。
虽然 DeepSeek 也曾在今年 1 月发布 DeepSeek-R1 的技术报告,但《自然》认为,此类技术文档与实际情况之间的差距可能很大。
相比之下,在同行评审中,外部专家并不是被动接收信息,而是能够在独立第三方(编辑)的主持和管理下,通过协作提出问题,并要求论文作者补充信息。
同行评审能够提升论文的清晰度,并确保作者对其主张作出合理的论证。这一流程并不一定会对文章内容带来重大修改,但却能增强研究的可信度。对 AI 开发者而言,这意味着他们的工作会更为扎实,并更具说服力。
结语:DeepSeek 开源模式或成行业典范
作为国产开源 AI 模型走向世界的代表,DeepSeek-R1 在全球开源社区拥有极高的口碑。而在本次登上《自然》杂志封面后,DeepSeek 又补充了这一模型的更多信息,为开源社区提供了科研参考、模型复现思路以及应用支持。
《自然》杂志呼吁更多的 AI 公司将其模型提交给同行进行评审,确保其声明经过验证和澄清。在这一背景下,DeepSeek 的开源模式不仅展示了国产 AI 的技术实力,也有望成为全球 AI 行业在科研透明度方面的参考典范。
股票配资门户网登录提示:文章来自网络,不代表本站观点。