一项由苏州大学、微软等机构合作的研究OPENTHINKIMG首次提出了完整的视觉工具强化学习框架,解决了当前大型视觉语言模型缺乏视觉思维的问题。该研究基于Qwen2-VL-2B基础模型,开发了V-TOOLRL方法,通过分布式工具部署、轨迹生成和强化学习,使AI能像人类一样"用图像思考"。实验表明,在图表推理任务上,该方法准确率达59.39%,显著超越了同类开源系统并优于GPT-4.1,为未来AI视觉认知提供了新路径。代码已在GitHub开源,将促进相关领域研究。
至顶网 Hugging Face 2025-05-16 17:02:37