本文作者:创意奇才

重大突破!微软发布“自我进化”,帮小模型超OpenAI-o1

创意奇才 今天 21
重大突破!微软发布“自我进化”,帮小模型超OpenAI-o1摘要: 生化危机重制版三部曲现已上架商店国区售价元不支持补齐即使库内有其中一款游戏也无法抵扣对应金额具体包含以下游戏生化危机豪华版生化危机生化危机经典服装包生化危机抵抗生化危机黄金版生化危...

《生化危机重制版三部曲》现已上架Steam商店,国区售价448元,不支持补齐(即使库内有其中一款游戏也无法抵扣对应金额),具体包含以下游戏:-生化危机2豪华版-生化危机3-生化危机3-经典服装包-生化危机:抵抗-生化危机4黄金版-生化危机4佣兵模式

声明:本文来自于微信公众号AIGC开放社区,授权 转载发布。

微软亚洲研究院发布了一种创新算法——。

rStar-M h通过代码增强CoT、蒙特卡洛树搜索等,可以帮助在不依赖老师模型蒸馏的情况下,实现多轮自我思维深度进化,极大增强模型的能力。

在美国数学竞赛AIME2024 中,rStar-M h平均 了53.3%(8/15)的难题,超过了OpenAI o1-preview的44.6%,以及所有其他开源的大模型,成为最聪明的前20%高中数学生。

在MATH基准 中,rStar-M h将阿里开源的小模型Qwen2.5-M h-7B的准确率从58.8%提高到90.0%,Qwen2.5-M h-1.5B的准确率从51.2%提高到87.8%,Phi3-mini-3.8B从41.4%提高到86.4%,全部超过了OpenAI o1-preview。

这充分说明,小模型在创新算法和高质量数据加持下,推理能力同样可以超大参数的前沿模型。

代码增强CoT

重大突破!微软发布“自我进化”,帮小模型超OpenAI-o1

传统的数学推理模型依赖于自然语言生成的推理步骤,这种方法虽然直观,但容易产生错误或不相关的步骤,尤其是在复杂的数学问题中很难被察觉到。所以,rStar-M h使用代码增强CoT(Chain-of-Thought,思维链)的方法来 这个难题。

模型在生成每一步推理时,不仅生成自然语言的解释,还生成对应的Python代码,并通过代码执行来验证推理步骤的正确性。代码增强CoT能够提供严格的验证机制,确保每一步推理的正确性。

例如,在 一个数学问题时,模型可能会生成一个方程求解的步骤,并通过Python代码实际执行该方程求解过程。如果代码执行成功且结果正确,该步骤才会被保留为有效推理步骤。这种方法不仅减少了错误推理步骤的生成,还提高了推理轨迹的整体质量。

为了进一步确保推理步骤的质量,rStar-M h 使用了蒙特卡洛树搜索(MCTS)来生成逐步推理轨迹。MCTS 被用来分解复杂的数学问题为多个单步生成任务。

每个步骤中,策略模型生成多个候选步骤,并通过代码执行来过滤有效节点。通过广泛的MCTS回滚,rStar-M h 能够为每个步骤分配Q值,确保生成的推理轨迹由正确且高质量的中间步骤组成。

PPM训练方法

目前,多数大模型在推理数学问题时面临着无法提供细粒度的步骤级反馈,以帮助其在推理过程中做出更优的选择。rStar-M h通过引入过程奖励模型(PRM)来帮助模型找到更优的推理路径。

PPM 的核心思想是通过构建步骤级的正负偏好对来训练模型,而不是直接依赖于精确的步骤级 。PPM 的训练方法利用了MCTS生成的Q值,这些Q值是通过广泛的回滚和反向传播过程计算得出的,反映了每个步骤对最终 的贡献。虽然这些Q值本身并不完全精确,但它们能够可靠地区分高质量步骤和低质量步骤。

PPM从MCTS树中选择Q值最高的两个步骤作为正例,Q值 的两个步骤作为负例,构建偏好对。通过这种方式,PPM 能够学习到哪些步骤更有可能引导模型生成正确的推理轨迹,从而在推理过程中做出更优的选择。

PPM 的训练过程采用了标准的Bradley-Terry 模型和成对排序损失函数。对于每个步骤,PPM 预测一个奖励分数,并通过成对排序损失函数来优化模型的预测能力。成对排序损失函数的核心思想是最大化正例步骤与负例步骤之间的奖励分数差异,从而确保模型能够准确地区分高质量和低质量的推理步骤。

PPM 的训练方法还引入了一个重要的创新点,避免直接使用Q值作为奖励标签。虽然Q值能够提供一定的步骤级反馈,但由于其固有的噪声和不精确性,直接使用Q值作为训练目标会导致模型学习到不准确的奖励信号。

所以,PPM 通过构建偏好对将Q值转化为相对排序问题,从而减少了噪声对模型训练的影响。这种方法不仅提高了模型的鲁棒性,还使得PPM能够在推理过程中更可靠地评估每一步的质量。

多轮自我进化

rStar-M h通过四轮自我思维深度进化,并结合PPM、MCTS和代码增强CoT 逐步增强模型的推理能力。

轮,通过 微调对基础模型进行初步改进,为后续的自我进化奠定基础。这一轮的关键在于生成高质量的初始训练数据,并利用这些数据对基础模型进行微调。

第二轮,通过PPM显著提升模型推理能力。PPM通过分析策略模型生成的推理步骤,识别出哪些步骤是高质量的,哪些步骤需要改进。然后将这些反馈信息传递给策略模型,指导其在后续的推理中做出更好的选择。

第三轮,通过PPM增强的MCTS生成更高质量的数据,进一步提升模型的推理能力。在这一轮中,PPM不仅评估策略模型生成的推理步骤,还指导MCTS的搜索过程,使其更有效地探索高质量的推理路径。

第四轮,通过增加MCTS回滚次数 超难数学推理问题。在前三轮自我进化的基础之上,第四轮自我进化通过增加MCTS的回滚次数,进一步提升了rStar-M h 具有挑战性数学问题的能力。

增加回滚次数使得MCTS能够更深入地探索不同的推理路径,发现那些在初步探索中可能被忽略的高质量 方案。这不仅提高了模型对复杂问题的 能力,还增强了其在面对高难度数学问题时的鲁棒性。

代码地址(目前无法打开处于审核中):https://github.com/microsoft/rStar

论文地址:https://arxiv.org/abs/2501.04519

从昨天微软开源的最强小模型Phi-4,以及 推出创新算法rStar-M h来看,未来小模型的性能和效率将逐渐成为主流,并且对于没有强大算力集群的中小企业和个人开发者来说 实用。

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

阅读
分享