用了 0.038627秒,为您找到准确率 最高 计划 软件 罔芷 88pkee 驻测相关内容2311 条
  • MUG-Eval: 让多语言模型评估像玩游戏一样简单 — KAIST与Trillion Labs联合研究突破

    MUG-Eval是KAIST和Trillion Labs联合开发的创新多语言评估框架,通过让语言模型在目标语言中进行自我对话来评估其生成能力。该方法独特之处在于不依赖语言特定工具或人工标注数据,而是通过任务完成率间接衡量语言能力。研究团队测试了8种顶级语言模型在30种语言上的表现,发现其结果与传统评估方法高度一致(相关系数>0.75)。MUG-Eval揭示了模型在低资源语言上表现显著落后,并发现英语并非评估低资源语言的最佳替代。该框架理论上支持2,102种语言,为真正包容的AI评估提供了新途径。
    至顶网  科技行者  2025-05-28 08:12:00  
  • 216年过去了,人类离攻克癌症还有多远?AI医疗或许会是那个“破局者”

    AI能让够更早,更准确的发现并预测癌变的发生,这也是目前AI医疗的的一个主流发展方向,更早的发现,更准确的预测。最近一项来自美国国立卫生研究院(NIH)的研究就在对肺癌精准预测方向上取得了重大突破
    至顶网  高书葆  2025-06-24 15:14:05  
  • 网易智企呼叫产品解读:安全合规、通话体验双管齐下

    安全合规作为第一道防线,国家对于呼叫中心行业的监管日趋严格,在刚刚过去的 315 晚会现场又打出一记重拳,曝光了一批不合规操作的上下游企业,涉及到“非法获取用户手机号码、频繁骚扰用户、通过技术手段规避投诉”等诸多行为。
    至顶网  业界供稿  2022-03-30 11:44:52  
  • 上海交通大学团队让AI学会挑食:大语言模型预训练的数据选择新突破

    上海交通大学团队开发的OPUS框架解决了AI大语言模型训练中的关键问题:如何根据具体优化器特性智能选择训练数据。该方法通过优化器诱导的投影实用性选择,仅增加4.7%计算开销就实现了平均2.2%的性能提升和8倍的训练效率。实验表明OPUS在多种场景下都能显著降低数据需求,为大规模AI训练提供了更经济高效的解决方案。
    至顶网  科技行者  2026-02-11 15:53:54  
  • Amazon团队发明神奇"压缩魔法":让AI聊天速度提升4倍,内存消耗减半的革命性技术

    Amazon研究团队开发出CompLLM压缩技术,能让AI处理长文档的速度提升4倍,内存消耗减半。该技术将长文档分段压缩成"概念嵌入",实现线性复杂度处理,解决了传统AI在处理超长文本时的计算瓶颈。实验显示在处理超长文档时性能优于传统方法,压缩结果可重复使用,为AI应用的效率优化提供了新方案。
    至顶网  科技行者  2025-10-17 10:59:04  
  • 告别消费主义的双12,是华为云12.12会员节真正的意义

    消费氛围是如此浓烈,以至于和今年疫情大背景下大家对稳定性、安全感的诉求而开始相悖,“定金人”“尾款人”等等自嘲背后映射着人们无可纾解的冲动购买和还款压力。
    至顶网  业界供稿  2020-12-17 19:32:51  
  • 当AI学会"察言观色":卡内基梅隆等高校如何让盲人用户重新掌控自动化选择权

    卡内基梅隆大学等机构研究团队开发了名为Morae的智能界面助手,专门解决盲人用户在使用AI自动化工具时失去选择权的问题。通过"动态模糊选择验证"机制,Morae能在关键决策点主动暂停询问用户偏好,而非自动替用户选择。用户研究显示,相比传统AI助手,Morae帮助用户做出了更多符合个人偏好的选择,显著提升了用户满意度和控制感。
    至顶网  科技行者  2025-09-05 10:13:39  
  • GPT-5真的实现了空间智能吗?SenseTime团队万亿token实测揭露真相

    SenseTime研究团队通过超过十亿token的大规模测试,全面评估了GPT-5等先进AI模型的空间智能水平。研究将空间智能分解为六种核心能力,发现GPT-5虽在某些简单任务上接近人类水平,但在复杂空间推理方面仍存在巨大差距。该研究揭示了当前AI发展的重要盲点,为未来空间智能研究提供了标准化评估框架。
    至顶网  科技行者  2025-08-26 14:18:19  
  • 香港科技大学团队突破性发现:AI视觉模型也能像人一样推理数学题!

    香港科技大学研究团队通过模型融合技术,成功将数学推理能力转移到视觉语言模型中,在保持视觉理解能力的同时显著提升数学问题解决能力。研究发现AI模型的不同功能分布在不同层次,为多模态AI发展提供新思路。
    至顶网  科技行者  2025-07-09 15:44:36  
  • “云开智达——2019 IBM云计算及人工智能峰会”在深圳举办

    11月21日, IBM 全球及大中华区云计算和人工智能领域的行业大咖、智慧大脑以及顶级专家与客户和合作伙伴相约鹏城,共同见证行业盛事——“云开智达——2019 IBM 云计算及人工智能峰会”盛大开启。
    至顶网  业界供稿  2019-11-22 12:54:42  
  • 从数十小时到数万小时:突破语音识别的数据瓶颈,新加坡科技设计大学和字节跳动联合研发突破性方案

    新加坡科技设计大学和字节跳动研究团队提出了"语音反向翻译"方法,解决语音识别中的数据稀缺问题。研究表明,仅用几十小时的标注语音数据就能训练TTS模型生成数万小时高质量合成语音,将数据扩充数百倍。他们引入归一化可理解度指标评估合成语音质量,确定了合成数据能有效增强ASR性能的质量阈值。将方法扩展到十种语言,生成了50万小时合成语音,对Whisper-large-v3模型进行预训练,平均降低错误率30%,对低资源语言尤其有效,错误率降低46%。
    至顶网  科技行者  2025-05-29 15:55:56  
  • 当AI助手学会上网冲浪:EPFL团队首次揭示计算机代理的安全隐患

    EPFL研究团队开发了首个专门测试AI计算机代理安全性的综合平台OS-HARM,通过150个测试任务发现包括GPT-4.1、Claude 3.7 Sonnet等在内的主流AI代理都存在严重安全漏洞,会执行有害指令、易受攻击欺骗,并可能因判断失误造成危险后果。
    至顶网  科技行者  2025-06-24 15:45:18  
  • 麦肯锡:使用人工智能技术的五大障碍

    在今天的文章中,麦肯锡分析来人工智能技术目前面临的局限障碍以及对应的解决方法。
    至顶网  科技行者  2018-02-13 17:01:55  
  • TI“四重奏”重塑驾乘体验

    德州仪器 (TI) 推出新一代支持边缘 AI 的雷达传感器和汽车音频处理器,帮助汽车制造商重新定义和改进车内的驾乘体验
    至顶网  毛烁  2025-01-14 14:25:21  
  • ITMO大学和MWS AI联手打造AI模型"瘦身神器":让大模型像熟练工匠一样精准压缩

    ITMO大学与MWS AI联合开发的ROCKET技术实现了AI模型压缩的重大突破,能将大型语言模型压缩50%的同时保持90%以上性能。该技术采用差异化压缩策略和动态资源分配,无需重新训练,效率比传统方法提升100倍。研究已验证其在文本、视觉、语音等多模态应用中的有效性。
    至顶网  科技行者  2026-02-13 08:33:36  
  • 超给力!特拉维夫大学团队破解AI大脑"进度条"秘密,让人工智能推理更聪明更高效

    特拉维夫大学研究团队发现AI在思考时具备类似人类的"进度感知"能力,并开发出"超频"技术让AI思考更高效。通过提取AI内部的"思考进度向量",不仅能实时显示AI的思考进展,还能主动调节思考速度。实验显示该技术在数学推理任务中将AI思考时间缩短30%的同时提升了答题准确率,为AI的可解释性和效率优化开辟了新方向。
    至顶网  科技行者  2025-06-12 09:54:54  
  • FlashAdventure基准测试:首个评估AI代理完成游戏完整故事任务的挑战平台

    这项由首尔国立大学等机构开展的研究创建了首个专门评估AI代理完成游戏完整故事任务的基准平台FlashAdventure。研究发现当前最先进的AI代理在复杂冒险游戏中成功率仅为5.88%,远低于人类的97.1%。为此提出了COAST框架来改进AI的长期记忆和推理能力。
    至顶网  科技行者  2025-09-22 10:47:40  
  • 当AI学会用代码"看懂"数学图形:香港中文大学团队让机器也能做几何题

    香港中文大学团队开发出MathCoder-VL,这是首个通过代码理解数学图形的AI模型。该系统将图形转换为精确绘图代码,而非模糊的自然语言描述,从而实现对几何图形的精确理解。研究团队构建了860万图形-代码配对的训练数据集,让AI学会"看图写代码",并能创造性地生成新的数学图形。在几何问题测试中,MathCoder-VL超越了GPT-4o等顶级商业模型,为数学教育AI应用开辟了新道路。
    至顶网  科技行者  2025-07-10 15:42:46  
  • 一个字就能节省千个字:低秩克隆技术实现高效知识蒸馏,哈尔滨工业大学研究提升小型语言模型效率

    这篇论文介绍了一种名为"低秩克隆"(LRC)的新型知识蒸馏方法,能极大提升小型语言模型的训练效率。哈尔滨工业大学深圳校区和百度公司的研究团队通过训练可学习的低秩投影矩阵,同时实现了软剪枝和激活克隆,避免了传统方法中的信息损失和对齐效率低下问题。实验证明,仅用100亿-200亿文本单元训练的LRC模型性能可匹配或超越需要万亿级训练数据的现有模型,训练效率提升1000倍以上,为资源受限场景下的高性能语言模型开发提供了突破性解决方案。
    至顶网  科技行者  2025-05-23 15:25:06  
  • 专业安全运营,就用NGSOC!奇安信NGSOC携六大能力全新升级

    11月8日,在2023年世界互联网大会上,奇安信集团举办了NGSOC产品战略升级发布会,作为奇安信集团的核心产品之一,NGSOC曾是2022年北京冬奥会安全运营中心核心安全监测平台,连续4年在态势感知与安全运营领域市场份额第一。
    至顶网  至顶网网络与安全频道  2023-11-08 16:23:48  
©2019 北京第二十六维信息技术有限公司(至顶网)版权所有.
京ICP备15039648号-7  京ICP证161336号  京公网安备11010802021500号