由阿里巴巴钱文团队与浙江大学合作的研究提出了"并联缩放"(ParScale)方法,一种全新的大语言模型能力提升策略。不同于增加参数或延长推理时间的传统方法,ParScale通过多路并行计算来提升模型性能:它使模型同时从多个角度处理同一输入,再智能整合结果。研究表明,P倍并行计算相当于增加O(log P)倍参数,但内存和延迟开销显著降低。对于1.6B参数模型,8路并行可节省22倍内存增长和6倍延迟增长。更重要的是,此方法可应用于现有模型,通过少量数据的后训练即可实现性能提升,为资源受限场景下部署强大AI提供新思路。
至顶网 科技行者 2025-05-20 18:07:10