这篇论文介绍了R1-Code-Interpreter,一种通过有监督学习和强化学习训练大型语言模型进行代码推理的新方法。研究团队收集了144个推理和规划任务,利用多轮训练教会模型自主决定何时使用文本推理或生成代码。最终的14B模型在测试集上将准确率从44.0%提高到64.1%,超过纯文本GPT-4o并接近带Code Interpreter的GPT-4o。研究揭示了SFT阶段的关键作用,并发现模型展现出自发的自我检查行为,为开源模型提供了与商业模型竞争的代码解释器能力。
至顶网 科技行者 2025-06-06 11:25:15