韩国科学技术院(KAIST)的研究团队发现了大型语言模型中一个令人担忧的现象:"推理刚性"。这种现象表现为即使是最先进的AI模型,如GPT-4o或Qwen3,也会在解决问题时固执地坚持熟悉的推理模式,甚至会"修改"用户明确给出的条件。研究人员创建了ReasoningTrap诊断数据集,揭示这种行为可分为三类:解释过载、输入不信任和部分指令关注。令人惊讶的是,专门为复杂推理训练的模型比基础模型表现出更强的"固执"倾向,这提醒我们在追求AI推理能力的同时,不应忽视其遵循指令的灵活性。
至顶网 科技行者 2025-05-28 19:54:42