用了 0.029257秒,为您找到准确率 最高 计划 软件 罔芷 88pkee 驻测相关内容2181 条
  • 亚信科技欧阳晔:用行业大模型破解企业AI落地难题

    通用大模型对企业业务理解能力不足,会产生很大的幻觉或偏差,给出的答案并不能很好地支撑业务;此外,企业的数据通常会包含很多敏感信息,直接使用大模型会带来数据泄露和隐私风险;运行和维护 LLM 需要专业知识和技术能力,给企业的IT基础架构以及人员素质提出了更大的挑战。
    至顶网  赵晓勤  2024-05-22 09:47:03  
  • Salesforce首席执行官:AI已承担公司近半数工作

    Salesforce首席执行官马克·贝尼奥夫表示,公司正大力推进人工智能应用,AI代理现在承担了公司30%至50%的工作。他认为员工应适应AI替代人工的趋势,转向更高价值的工作。然而,这一变化导致约1000名员工被裁,虽然公司计划招聘同等数量新员工,但主要专注于销售AI技术。这一趋势在科技行业普遍存在,今年已有超过63000个科技岗位消失,AI被认为是重要原因之一。
    至顶网  SiliconANGLE  2025-06-27 14:36:24  
  • 大脑的双模思考:如何让AI像人类一样灵活切换快慢思维模式

    这篇研究提出了OThink-R1,一种创新的大型推理模型,能够像人类一样在快速直觉思维和慢速深度推理之间自动切换。研究者发现,现有推理模型即使面对简单问题也会生成冗长的推理过程,导致计算资源浪费。通过分析推理轨迹并使用LLM评判员区分冗余和必要推理,OThink-R1能根据问题复杂度动态调整思考深度。实验表明,该方法平均减少了23.4%的生成文本量,同时保持或提高了准确率,代表了向更高效、更人性化AI推理系统迈出的重要一步。
    至顶网  科技行者  2025-06-07 08:30:07  
  • AI+能源 第四范式与华油能源打造油气智慧平台

    能源领域的AI变革才刚刚开始,第四范式与华油能源在能源服务行业进行开创性的探索,让能源行业搭上了最强劲的AI引擎 ,加快油田勘探开发生产一体化智慧平台的建设和实践落地进程。
    至顶网  李祥敬  2019-06-11 11:05:17  
  • 卡内基梅隆大学研究团队突破性解决AI推理效率难题:让机器像侦探一样聪明破案

    卡内基梅隆大学研究团队提出MRT方法,通过元强化学习优化AI推理过程。该方法不仅关注最终答案正确性,还奖励思考过程中的有效进展,解决了现有AI"思考时间长但效率低"的问题。实验显示MRT在数学推理任务中准确率提升2-3倍,计算效率提升1.5-5倍,为构建更智能高效的AI系统提供了新路径。
    至顶网  科技行者  2025-07-31 11:25:45  
  • 斯坦福团队破解语言模型"记忆密码":追踪AI如何从维基百科学会知识

    斯坦福团队开发LMEnt系统,首次实现对AI语言模型知识获取过程的精确追踪。该系统通过精细标注维基百科、构建高精度检索系统和训练多个模型,揭示了AI学习知识的动态过程——高频事实更易学会但也易遗忘。这项研究为理解AI内部机制、改进模型设计提供了重要工具和洞察。
    至顶网  科技行者  2025-09-22 10:48:35  
  • 奇安信天眼独家中标中国移动态势感知一期工程全流量监测项目

    日前,中国移动发布“网络安全态势感知平台一期工程全流量安全监测设备中标结果公示”。结果显示,奇安信天眼全流量安全监测产品凭借优秀的能力脱颖而出,独家中标该项目,首次进军全球头部通信运营商中国移动集团总部。
    至顶网  至顶网网络与安全频道  2021-04-30 09:28:19  
  • 阿拉伯语搜索引擎的大突破:巴斯克大学团队让机器真正"听懂"阿拉伯语问题

    西班牙巴斯克大学领导的国际团队开发出专门针对阿拉伯语的增强搜索系统,通过创新的"注意力相关性评分"机制,让机器能更精准理解阿拉伯语问题并找到准确答案。该系统在Top-1准确率上达到37.01%,比现有最佳系统提升0.91个百分点,为阿拉伯语用户带来更好的智能搜索体验。
    至顶网  科技行者  2025-08-06 11:13:33  
  • 加速扩散大语言模型:UCLA研究团队提出自适应并行解码新方法

    UCLA计算机科学系研究团队提出的"自适应并行解码"(APD)方法,成功解决了扩散大语言模型面临的速度与质量权衡难题。该方法通过动态调整并行生成的词数,结合一个小型辅助自回归模型来评估生成质量,并引入KV缓存和掩码输入限制等优化措施,使扩散模型能在保持高质量输出的同时显著提升生成速度。实验表明,使用APD的Dream 7B模型不仅能达到每秒59个词的吞吐量(比基线提升近6倍),还在数学推理等任务上保持了接近原始水平的准确率,甚至超越了传统自回归模型的速度。
    至顶网  科技行者  2025-06-06 17:25:16  
  • 清华大学推出MATE系统:让AI成为残障人士的"万能翻译官"

    清华大学研究团队开发了MATE多智能体翻译系统,这是首个专为残障人士设计的开源AI辅助工具。该系统能在文字、语音、图像间智能转换,如将图片转为语音描述、语音转文字等。系统包含8个专业智能体协作,准确率达91.7%,支持本地运行保护隐私,为视听障碍等用户群体提供了强大的信息获取工具。
    至顶网  科技行者  2025-06-30 10:54:10  
  • 吕建成:人工智能大模型时代的机遇与理论挑战

    近日,在2022昇腾AI开发者创享日·成都站上,四川大学计算机学院院长吕建成进行了主题为《人工智能大模型时代的机遇与理论挑战》的精彩演讲。
    至顶网  业界供稿  2022-06-27 10:18:55  
  • 全国政协委员吴晶:”城市大脑”、”最多跑一次”应在全国推广

    全国政协委员、浙江省省政协副主席吴晶在两会提案中呼吁加强社会治理智能化水平。
    至顶网  阿里巴巴  2018-03-06 12:24:29  
  • NOVER:语言模型的无验证器强化学习激励训练

    NOVER是一种创新的无验证器强化学习框架,解决了传统激励训练依赖外部验证器的限制。由伦敦国王学院研究团队开发,它通过计算"推理困惑度"作为奖励代理,使语言模型能在任何文本任务中自主发展推理能力。实验表明,NOVER在一般推理、创意写作、社会智能和多语言能力等多种任务上均优于基线方法,甚至使3B模型接近从671B模型蒸馏版本的性能。此外,其灵活性还支持"反向激励训练"等创新应用,为语言模型训练开辟了新方向。
    至顶网  科技行者  2025-05-29 08:25:24  
  • 土耳其萨班哲大学突破性研究:AI学会用"天灾百科全书"识别全球灾后损失

    土耳其萨班哲大学研究团队开发了突破性AI系统TCSSM,能够结合卫星图像和地理灾害描述,自动评估全球各地的自然灾害损失。该系统通过分析216万个问答样本,在跨地域测试中达到87.68%的平均准确率,为国际救援提供快速精准的损失评估工具。
    至顶网  科技行者  2025-08-15 15:05:52  
  • ARM:自适应推理模型如何解决大型推理模型的"过度思考"问题

    自适应推理模型(ARM)解决了大型推理模型的"过度思考"问题,能够根据任务难度自动选择合适的推理格式。研究团队通过创新的Ada-GRPO算法训练,使ARM在保持性能的同时平均减少30%的计算量,并提供自适应、指令引导和共识引导三种工作模式。这一突破使AI更接近人类思维方式,在简单问题上直接作答,复杂问题上才详细推理,极大提升了计算效率。
    至顶网  科技行者  2025-05-30 07:45:05  
  • 巧用梯度分组:西湖大学团队打造更高效的大语言模型训练方式

    西湖大学团队提出的梯度分组缩放(SGG)方法巧妙解决了大语言模型训练中的关键挑战。与传统方法不同,SGG动态聚类每层参数并应用特定缩放因子,既保留参数级优化又引入组级约束。实验证明,SGG在多种任务和模型规模上显著提升性能,特别是使低秩训练首次达到全秩性能水平,且具有出色的稳定性和灵活性,为资源受限环境下的大模型训练提供了实用解决方案。
    至顶网  科技行者  2025-06-05 15:19:15  
  • 西安交通大学团队提出MAPS:基于性格理论的多智能体系统,让AI像人类专家团队一样协作解决科学难题

    西安交通大学团队提出MAPS多智能体系统,基于心理学大七人格理论设计7个专门化AI智能体协作解决多模态科学问题。系统采用苏格拉底式质疑方法进行自我监督,在数学、物理、化学问题求解上比现有最佳AI提升15.84%,甚至超越人类专家3.58%,为AI协作系统设计提供了新思路。
    至顶网  科技行者  2025-08-01 10:14:31  
  • 腾讯觅影获中国人工智能大赛“创新之星”奖 破解医疗AI普及难点

    2020中国人工智能高峰论坛暨中国人工智能大赛发布会在厦门举行,“腾讯觅影”医疗影像人工智能解决方案荣获大赛“创新之星”奖。
    至顶网  至顶网人工智能频道  2020-12-24 15:01:06  
  • 浙江大学团队揭秘AI写作新现象:中间过程竟比最终答案更准确

    浙江大学研究团队发现AI写作中的"时间振荡"现象:AI在生成过程的中间步骤往往给出正确答案,但最终输出时却被错误答案覆盖。团队提出"时间自一致性投票"和"时间一致性强化"两种解决方案,通过利用中间过程信息显著提升AI性能,在多个数学推理任务上实现2-25%的准确率提升,为AI系统的可靠性改进提供了新思路。
    至顶网  科技行者  2025-08-14 12:48:15  
  • 推理增强的大模型更容易产生幻觉吗?清华和新加坡国立大学团队深度解析

    这项研究由清华大学和新加坡国立大学团队完成,系统探讨了大推理模型在事实查询任务中的幻觉问题。研究发现,仅通过单一训练阶段(仅SFT或仅RL)开发的推理模型更容易产生幻觉,而完整SFT+RL流程训练的模型幻觉较少。研究者识别出两种导致幻觉的关键认知行为:"错误重复"和"思考-答案不匹配",并从模型不确定性校准角度揭示了幻觉产生的内在机制,为开发更可靠的推理模型提供了重要指导。
    至顶网  科技行者  2025-06-03 13:33:56  
©2019 北京第二十六维信息技术有限公司(至顶网)版权所有.
京ICP备15039648号-7  京ICP证161336号  京公网安备11010802021500号