DeepSeek: R1 20% OFF
- 160K Context
- 3/M Input Tokens
- 8/M Output Tokens
- DeepSeek
- Text 2 text
- 09 Feb, 2025
DeepSeek-R1
1. 介绍
我们介绍我们的第一代推理模型,DeepSeek-R1-Zero 和 DeepSeek-R1。 DeepSeek-R1-Zero 是通过大规模强化学习(RL)训练的模型,没有经过监督微调(SFT)作为初步步骤,表现出卓越的推理能力。 通过 RL,DeepSeek-R1-Zero 自然展现出许多强大且有趣的推理行为。 然而,DeepSeek-R1-Zero 遇到了无尽重复、可读性差和语言混合等挑战。为了应对这些问题并进一步提升推理性能, 我们引入了 DeepSeek-R1,该模型在 RL 之前融入了冷启动数据。 DeepSeek-R1 在数学、代码和推理任务上达到了与 OpenAI-o1 相当的性能。 为了支持研究社区,我们已开源 DeepSeek-R1-Zero、DeepSeek-R1 以及基于 Llama 和 Qwen 从 DeepSeek-R1 提炼出的六个稠密模型。DeepSeek-R1-Distill-Qwen-32B 在各种基准测试中超过了 OpenAI-o1-mini,达到了稠密模型的新最优结果。
注意:在本地运行 DeepSeek-R1 系列模型之前,我们建议您查看 使用推荐 部分。
2. 模型概述
后训练:对基础模型进行大规模强化学习
-
我们直接将强化学习(RL)应用于基础模型,而不依赖于监督微调(SFT)作为初步步骤。这种方法使模型能够探索链式思维(CoT)以解决复杂问题,从而开发出 DeepSeek-R1-Zero。DeepSeek-R1-Zero 展现了自我验证、反思和生成长链式思维等能力,标志着研究社区的重要里程碑。值得注意的是,这是首次公开研究验证了 LLM 的推理能力可以仅通过 RL 激励,而无需 SFT。这一突破为该领域未来的进展铺平了道路。
-
我们介绍了开发 DeepSeek-R1 的流程。该流程包含两个 RL 阶段,旨在发现改进的推理模式并与人类偏好对齐,以及两个 SFT 阶段,作为模型推理和非推理能力的种子。 我们相信该流程将为行业带来更好的模型。
蒸馏:小模型也可以强大
- 我们证明了较大模型的推理模式可以被蒸馏到较小模型中,从而在性能上优于通过 RL 在小模型上发现的推理模式。开源的 DeepSeek-R1 及其 API 将使研究社区受益,以便在未来蒸馏出更好的小模型。
- 利用 DeepSeek-R1 生成的推理数据,我们微调了多个在研究社区广泛使用的稠密模型。评估结果表明,蒸馏的小型稠密模型在基准测试中表现出色。我们向社区开源了基于 Qwen2.5 和 Llama3 系列的蒸馏 1.5B、7B、8B、14B、32B 和 70B 检查点。
3. 评估结果
DeepSeek-R1-评估
对于我们所有的模型,最大生成长度设置为 32,768 个标记。对于需要采样的基准,我们使用 $0.6$ 的温度、$0.95$ 的 top-p 值,并为每个查询生成 64 个响应以估计 pass@1。
类别 | 基准(指标) | Claude-3.5-Sonnet-1022 | GPT-4o 0513 | DeepSeek V3 | OpenAI o1-mini | OpenAI o1-1217 | DeepSeek R1 |
---|---|---|---|---|---|---|---|
架构 | - | - | MoE | - | - | MoE | |
# 激活参数 | - | - | 37B | - | - | 37B | |
# 总参数 | - | - | 671B | - | - | 671B | |
英语 | MMLU (Pass@1) | 88.3 | 87.2 | 88.5 | 85.2 | 91.8 | 90.8 |
MMLU-Redux (EM) | 88.9 | 88.0 | 89.1 | 86.7 | - | 92.9 | |
MMLU-Pro (EM) | 78.0 | 72.6 | 75.9 | 80.3 | - | 84.0 | |
DROP (3-shot F1) | 88.3 | 83.7 | 91.6 | 83.9 | 90.2 | 92.2 | |
IF-Eval (Prompt Strict) | 86.5 | 84.3 | 86.1 | 84.8 | - | 83.3 | |
GPQA-Diamond (Pass@1) | 65.0 | 49.9 | 59.1 | 60.0 | 75.7 | 71.5 | |
SimpleQA (正确) | 28.4 | 38.2 | 24.9 | 7.0 | 47.0 | 30.1 | |
FRAMES (准确率) | 72.5 | 80.5 | 73.3 | 76.9 | - | 82.5 | |
AlpacaEval2.0 (LC-winrate) | 52.0 | 51.1 | 70.0 | 57.8 | - | 87.6 | |
ArenaHard (GPT-4-1106) | 85.2 | 80.4 | 85.5 | 92.0 | - | 92.3 | |
代码 | LiveCodeBench (Pass@1-COT) | 33.8 | 34.2 | - | 53.8 | 63.4 | 65.9 |
Codeforces (百分位) | 20.3 | 23.6 | 58.7 | 93.4 | 96.6 | 96.3 | |
Codeforces (评级) | 717 | 759 | 1134 | 1820 | 2061 | 2029 | |
SWE Verified (解决) | 50.8 | 38.8 | 42.0 | 41.6 | 48.9 | 49.2 | |
Aider-Polyglot (准确率) | 45.3 | 16.0 | 49.6 | 32.9 | 61.7 | 53.3 | |
数学 | AIME 2024 (Pass@1) | 16.0 | 9.3 | 39.2 | 63.6 | 79.2 | 79.8 |
MATH-500 (Pass@1) | 78.3 | 74.6 | 90.2 | 90.0 | 96.4 | 97.3 | |
CNMO 2024 (Pass@1) | 13.1 | 10.8 | 43.2 | 67.6 | - | 78.8 | |
中文 | CLUEWSC (EM) | 85.4 | 87.9 | 90.9 | 89.9 | - | 92.8 |
C-Eval (EM) | 76.7 | 76.0 | 86.5 | 68.9 | - | 91.8 | |
C-SimpleQA (正确) | 55.4 | 58.7 | 68.0 | 40.3 | - | 63.7 |
蒸馏模型评估
模型 | AIME 2024 pass@1 | AIME 2024 cons@64 | MATH-500 pass@1 | GPQA Diamond pass@1 | LiveCodeBench pass@1 | CodeForces rating |
---|---|---|---|---|---|---|
GPT-4o-0513 | 9.3 | 13.4 | 74.6 | 49.9 | 32.9 | 759 |
Claude-3.5-Sonnet-1022 | 16.0 | 26.7 | 78.3 | 65.0 | 38.9 | 717 |
o1-mini | 63.6 | 80.0 | 90.0 | 60.0 | 53.8 | 1820 |
QwQ-32B-Preview | 44.0 | 60.0 | 90.6 | 54.5 | 41.9 | 1316 |
DeepSeek-R1-Distill-Qwen-1.5B | 28.9 | 52.7 | 83.9 | 33.8 | 16.9 | 954 |
DeepSeek-R1-Distill-Qwen-7B | 55.5 | 83.3 | 92.8 | 49.1 | 37.6 | 1189 |
DeepSeek-R1-Distill-Qwen-14B | 69.7 | 80.0 | 93.9 | 59.1 | 53.1 | 1481 |
DeepSeek-R1-Distill-Qwen-32B | 72.6 | 83.3 | 94.3 | 62.1 | 57.2 | 1691 |
DeepSeek-R1-Distill-Llama-8B | 50.4 | 80.0 | 89.1 | 49.0 | 39.6 | 1205 |
DeepSeek-R1-Distill-Llama-70B | 70.0 | 86.7 | 94.5 | 65.2 | 57.5 | 1633 |
4. 聊天网站与 API 平台
您可以在 DeepSeek 的官方网站与 DeepSeek-R1 聊天:chat.deepseek.com,并在 “DeepThink” 按钮上切换
我们还在 DeepSeek 平台提供与 OpenAI 兼容的 API:platform.deepseek.com
5. 如何在本地运行
DeepSeek-R1 模型
请访问 DeepSeek-V3 仓库以获取有关在本地运行 DeepSeek-R1 的更多信息。
注意:Hugging Face 的 Transformers 尚未直接支持。
DeepSeek-R1-Distill 模型
DeepSeek-R1-Distill 模型可以像 Qwen 或 Llama 模型一样使用。
例如,您可以使用 vLLM 轻松启动服务:
vllm serve deepseek-ai/DeepSeek-R1-Distill-Qwen-32B --tensor-parallel-size 2 --max-model-len 32768 --enforce-eager
您也可以使用 SGLang 轻松启动服务
python3 -m sglang.launch_server --model deepseek-ai/DeepSeek-R1-Distill-Qwen-32B --trust-remote-code --tp 2
使用推荐
我们建议在使用 DeepSeek-R1 系列模型时遵循以下配置,包括基准测试,以实现预期性能:
- 将温度设置在 0.5-0.7 范围内(推荐 0.6),以防止无尽重复或不连贯的输出。
- 避免添加系统提示;所有指令应包含在用户提示中。
- 对于数学问题,建议在提示中包含指令,例如:“请逐步推理,并将最终答案放在 \boxed{} 中。”
- 在评估模型性能时,建议进行多次测试并取平均结果。
此外,我们观察到 DeepSeek-R1 系列模型在响应某些查询时倾向于跳过思维模式(即输出 “<think>\n\n</think>”),这可能会对模型性能产生不利影响。 为了确保模型进行充分推理,我们建议强制模型在每次输出的开头以 “<think>\n” 开始其响应。