Type something to search...
解锁效率:提升LLM训练的群体相对政策优化综合指南

解锁效率:提升LLM训练的群体相对政策优化综合指南

GRPO 简介:一种用于 LLM 推理训练的高效策略优化方法

简介

强化学习 (RL) 已成为一种强大的工具,用于在大型语言模型 (LLM) 的初始训练之后增强其能力,尤其是在需要大量推理的任务中。DeepSeek 最近在 DeepSeek-Math [2] 和 DeepSeek-R1 [3] 模型方面的突破,证明了 RL 在提高 LLM 的数学推理和问题解决能力方面的巨大潜力。

这些成就得益于一种名为 Group Relative Policy Optimization (GRPO) 的创新 RL 方法,该方法解决了将 RL 应用于语言模型的独特挑战。在这篇文章中,我们将深入探讨 GRPO 的工作原理,以及它为何代表了 LLM 训练的重大进步。

PPO vs GRPO

Proximal Policy Optimization (PPO) [1] 一直是用于语言模型 RL 微调的首选算法。PPO 的核心是一种策略梯度方法,它使用裁剪来限制策略更新(梯度),从而防止破坏性的大的策略变化。PPO 的目标函数可以写成:

GRPO — 首次在 [2] 中引入 — 建立在 PPO 的基础上,但引入了几项关键创新,使其更高效,更适合语言模型:

  1. 无需值网络,因此更少的内存/计算使用
  2. 使用组采样进行更有效的稳定优势估计
  3. 通过进一步惩罚目标和奖励,使用更保守的更新机制

GRPO:更深入的了解

LLM 作为策略

在 GRPO 中,语言模型充当策略网络 (actor),将问题 q 作为输入观察 s,并生成一系列 token 作为动作。策略分布在 token 上分解:

**注意:**在原始论文 [2] 中,他们使用 o_t 来表示时间步 t 的输出 token。而我们使用 a_t 来符合标准的 RL 动作符号。

顺序 token 生成

由于 transformer/LLM 的自回归性质,生成过程本质上是顺序的:

  1. 每个 token 都是根据之前的 token 有条件生成的
  2. 策略网络 (LLM) 维护一个运行上下文
  3. 每个 token 生成步骤都可以被视为 RL 框架中的一个动作 a_t

奖励和优势计算

对于每个生成的序列,GRPO 按如下方式计算每个 token 的奖励:

GRPO 不使用值网络,而是通过对从参考策略采样多个不同输出获得的奖励组(批次)进行归一化来估计基线优势 A,这些输出是针对与输入相同的问题生成的:

GRPO 目标

对于每个问题 𝑞,GRPO 从旧策略 𝜋𝜃𝑜𝑙𝑑 中采样一组输出 {𝑜1, 𝑜2, · · · , 𝑜𝐺},然后通过最大化 GRPO 目标来优化策略模型。完整的 GRPO 目标将所有内容整合在一起:

此目标:

  1. 在组和序列长度上取平均值
  2. 使用裁剪进行保守更新
  3. 包含 KL 散度的估计值作为惩罚,以防止与参考模型产生较大偏差

结论

GRPO 代表了将 RL 应用于语言模型的重大进步。通过消除对值网络的需求并引入组相对优势估计,它提供了一个更高效和稳定的训练过程。DeepSeek-Math 和 DeepSeek-R1 的成功证明了这种方法的实际好处。

GRPO 的关键创新 — 组采样、相对优势估计以及消除值网络 — 为 LLM 训练的未来发展提供了蓝图。随着我们继续突破语言模型可以实现的界限,像 GRPO 这样的技术对于释放其全部潜力至关重要。

参考文献

[1] Schulman, John, et al. Proximal Policy Optimization Algorithms. arXiv:1707.06347, arXiv, 28 Aug. 2017. arXiv.org, https://doi.org/10.48550/arXiv.1707.06347.

[2] Shao, Zhihong, et al. DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models. arXiv:2402.03300, arXiv, 27 Apr. 2024. arXiv.org, https://doi.org/10.48550/arXiv.2402.03300.

[3] DeepSeek-AI, et al. DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning. arXiv:2501.12948, arXiv, 22 Jan. 2025. arXiv.org, https://doi.org/10.48550/arXiv.2501.12948.

Related Posts

结合chatgpt-o3-mini与perplexity Deep Research的3步提示:提升论文写作质量的终极指南

结合chatgpt-o3-mini与perplexity Deep Research的3步提示:提升论文写作质量的终极指南

AI 研究报告和论文写作 合并两个系统指令以获得两个模型的最佳效果 Perplexity AI 的 Deep Research 工具提供专家级的研究报告,而 OpenAI 的 ChatGPT-o3-mini-high 擅长推理。我发现你可以将它们结合起来生成令人难以置信的论文,这些论文比任何一个模型单独撰写的都要好。你只需要将这个一次性提示复制到 **

阅读更多
让 Excel 过时的 10 种 Ai 工具:实现数据分析自动化,节省手工作业时间

让 Excel 过时的 10 种 Ai 工具:实现数据分析自动化,节省手工作业时间

Non members click here作为一名软件开发人员,多年来的一个发现总是让我感到惊讶,那就是人们还在 Excel

阅读更多
使用 ChatGPT 搜索网络功能的 10 种创意方法

使用 ChatGPT 搜索网络功能的 10 种创意方法

例如,提示和输出 你知道可以使用 ChatGPT 的“搜索网络”功能来完成许多任务,而不仅仅是基本的网络搜索吗? 对于那些不知道的人,ChatGPT 新的“搜索网络”功能提供实时信息。 截至撰写此帖时,该功能仅对使用 ChatGPT 4o 和 4o-mini 的付费会员开放。 ![](https://images.weserv.nl/?url=https://cdn-im

阅读更多
掌握Ai代理:解密Google革命性白皮书的10个关键问题解答

掌握Ai代理:解密Google革命性白皮书的10个关键问题解答

10 个常见问题解答 本文是我推出的一个名为“10 个常见问题解答”的新系列的一部分。在本系列中,我旨在通过回答关于该主题的十个最常见问题来分解复杂的概念。我的目标是使用简单的语言和相关的类比,使这些想法易于理解。 图片来自 [Solen Feyissa](https://unsplash.com/@solenfeyissa?utm_source=medium&utm_medi

阅读更多
在人工智能和技术领域保持领先地位的 10 项必学技能 📚

在人工智能和技术领域保持领先地位的 10 项必学技能 📚

在人工智能和科技这样一个动态的行业中,保持领先意味着不断提升你的技能。无论你是希望深入了解人工智能模型性能、掌握数据分析,还是希望通过人工智能转变传统领域如法律,这些课程都是你成功的捷径。以下是一个精心策划的高价值课程列表,可以助力你的职业发展,并让你始终处于创新的前沿。 1. 生成性人工智能简介课程: [生成性人工智能简介](https://genai.works

阅读更多
揭开真相!深度探悉DeepSeek AI的十大误区,您被误导了吗?

揭开真相!深度探悉DeepSeek AI的十大误区,您被误导了吗?

在AI军备竞赛中分辨事实与虚构 DeepSeek AI真的是它所宣传的游戏规则改变者,还是仅仅聪明的营销和战略炒作?👀 虽然一些人将其视为AI效率的革命性飞跃,但另一些人则认为它的成功建立在借用(甚至窃取的)创新和可疑的做法之上。传言称,DeepSeek的首席执行官在疫情期间像囤积卫生纸一样囤积Nvidia芯片——这只是冰山一角。 从其声称的550万美元培训预算到使用Open

阅读更多
Type something to search...