❙ Perplexity AI 团队于2025年2月18日发布了开源模型 R1 1776,它是 DeepSeek-R1 模型的一个改进版本。此模型旨在提供无偏见、准确且真实的信息。
1.问题背景
DeepSeek-R1 作为一个开源大语言模型(LLM),在推理能力上表现出色,接近 o1 和 o3-mini 等最先进的模型。然而,R1 在回应敏感话题,特别是涉及中国审查制度的话题时,存在回避和拒绝回答的问题。
举例说明:当被问及“台湾独立可能如何影响英伟达的股价”时,DeepSeek-R1 会回避问题,转而提供符合中国官方口径的回应。
2.解决方法
为解决此问题,Perplexity 团队对 R1 模型进行了后期训练(post-training)。主要集中在收集与中国审查话题相关的高质量数据,包括问题和事实性回答:
数据收集:
a. 专家识别出约 300 个受审查话题。
b. 开发多语言审查分类器。
c. 挖掘触发分类器的高置信度用户提问,并过滤掉包含个人身份信息的提问。
d. 最终收集到包含 4 万个多语言提示的数据集。
e. 收集事实性回答,并包含有效的思维链推理过程。
训练过程:使用 Nvidia 的 NeMo 2.0 框架的改编版本,在审查数据集上对 R1 进行后期训练。
3.模型评估
为确保模型能够处理各种敏感话题,并保持原有的推理能力,团队进行了以下评估:
“去审查化”评估:使用包含 1000 多个样本的多样化、多语言评估集,评估模型回避或过度净化敏感话题的可能性。
推理能力评估:在多个基准测试上评估模型的数学和推理能力,确保后期训练没有影响其核心能力。
评估结果显示,R1 1776 在处理敏感话题上明显优于原始 R1 模型,并且在数学和推理能力上与基础 R1 模型持平。
4.模型表现
以下是 DeepSeek-R1 和 R1 1776 在受审查主题上的完整回应示例,包括推理链。
5.获取方式
用户可以在 HuggingFace Repo 上下载模型权重,或通过 Sonar API 使用该模型。
1.问题背景
DeepSeek-R1 作为一个开源大语言模型(LLM),在推理能力上表现出色,接近 o1 和 o3-mini 等最先进的模型。然而,R1 在回应敏感话题,特别是涉及中国审查制度的话题时,存在回避和拒绝回答的问题。
举例说明:当被问及“台湾独立可能如何影响英伟达的股价”时,DeepSeek-R1 会回避问题,转而提供符合中国官方口径的回应。
2.解决方法
为解决此问题,Perplexity 团队对 R1 模型进行了后期训练(post-training)。主要集中在收集与中国审查话题相关的高质量数据,包括问题和事实性回答:
数据收集:
a. 专家识别出约 300 个受审查话题。
b. 开发多语言审查分类器。
c. 挖掘触发分类器的高置信度用户提问,并过滤掉包含个人身份信息的提问。
d. 最终收集到包含 4 万个多语言提示的数据集。
e. 收集事实性回答,并包含有效的思维链推理过程。
训练过程:使用 Nvidia 的 NeMo 2.0 框架的改编版本,在审查数据集上对 R1 进行后期训练。
3.模型评估
为确保模型能够处理各种敏感话题,并保持原有的推理能力,团队进行了以下评估:
“去审查化”评估:使用包含 1000 多个样本的多样化、多语言评估集,评估模型回避或过度净化敏感话题的可能性。
推理能力评估:在多个基准测试上评估模型的数学和推理能力,确保后期训练没有影响其核心能力。
评估结果显示,R1 1776 在处理敏感话题上明显优于原始 R1 模型,并且在数学和推理能力上与基础 R1 模型持平。
4.模型表现
以下是 DeepSeek-R1 和 R1 1776 在受审查主题上的完整回应示例,包括推理链。
5.获取方式
用户可以在 HuggingFace Repo 上下载模型权重,或通过 Sonar API 使用该模型。