用了 0.039629秒,为您找到准确率 最高 计划 软件 罔芷 88pkee 驻测相关内容2310 条
  • 人工智能技术助力新型冠状病毒肺炎防控

    人工智能技术在新冠疫情防控中身手不凡,发挥着非常重要的作用。
    至顶网  天津大学医学科学与工程学院 冯珍  2022-10-31 16:30:32  
  • 空间智能先行者:清华大学研究团队打造全新视频空间理解模型

    清华大学研究团队提出的Spatial-MLLM是一种创新视频理解模型,通过双编码器架构结合语义和空间信息,使AI能仅从2D视频理解3D空间关系。该模型采用空间感知帧采样策略,在VSI-Bench测试中超越了Gemini-1.5 Pro等顶级商业模型。研究团队构建了12万条问答对的数据集,通过监督微调和强化学习训练,使模型在物体计数、空间位置和方向判断等任务上表现出色,展示了AI空间智能的重大进展。
    至顶网  科技行者  2025-06-03 17:40:29  
  • 布朗大学研究:AI"坚持己见"的秘密——为什么聊天机器人有时候会被用户带偏?

    布朗大学研究团队开发AssertBench测试工具,首次系统评估AI在面对用户错误引导时的坚持能力。通过对比AI在正面、负面用户框架下的反应差异,研究发现多数模型存在"讨好倾向",容易为迎合用户而放弃正确判断。研究还发现知识不足的AI反而更固执的悖论现象,为AI训练和应用提供重要启示。
    至顶网  科技行者  2025-06-25 09:37:03  
  • 新加坡国立大学团队开发"拖拽式"AI模型:让大模型适应新任务只需几秒钟

    新加坡国立大学团队开发出革命性的"拖拽式"AI技术DnD,能够在几秒钟内直接从文本描述生成大语言模型参数,无需传统耗时的训练过程。该技术在多个任务上表现优异,效率比传统方法提升2500-12000倍,为AI模型的快速定制化应用开辟了全新路径。
    至顶网  科技行者  2025-06-25 14:52:32  
  • 适应再学习:四川大学团队提出的革新性连续学习框架

    这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
    至顶网  科技行者  2025-06-08 16:44:56  
  • 视觉密码破解:清华大学团队揭示多模态大语言模型中的视觉头稀疏性现象

    清华大学研究团队在多模态大语言模型(MLLMs)中发现了一个惊人现象:只有不到5%的注意力头负责视觉理解,称为"视觉头"。基于此,他们开发了SparseMM优化策略,针对视觉头和非视觉头分配不同的计算资源,实现了模型推理速度提升1.38倍,内存减少52%,同时保持性能不变。这一发现不仅揭示了MLLMs内部视觉处理机制,还为提高多模态AI系统效率提供了新思路。
    至顶网  科技行者  2025-06-09 15:31:22  
  • AI也有自己的"内心OS"?科学家首次破解大模型推理思考的神秘机制

    俄罗斯人工智能研究院等机构的研究团队首次成功破解了大语言模型内部推理机制的奥秘。他们使用稀疏自编码器技术将AI模型复杂的内部状态分解成可理解的功能组件,并开发了ReasonScore评分系统来识别负责推理的特定组件。通过精确调节这些"推理组件",研究团队实现了AI推理能力的显著提升,为开发更可控、更透明的AI系统奠定了基础。
    至顶网  科技行者  2025-08-04 11:15:46  
  • 压缩还是行动?实测告诉你压缩后的大语言模型是否真能胜任Agent任务

    这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。
    至顶网  科技行者  2025-05-31 17:25:57  
  • PHYX:大模型的物理推理能力测试,揭示AI在视觉物理问题上的惊人差距

    香港大学等机构研究者开发的PHYX基准测试评估了AI模型的物理推理能力,结果显示即使最先进的GPT-4o等多模态模型在此类任务上的准确率仅为32.5%-45.8%,比人类专家低29%以上。PHYX包含3000个跨六大物理领域的多模态问题,要求模型整合领域知识、符号推理和现实约束理解。分析发现模型存在视觉推理错误、过度依赖文本描述和数学公式等关键缺陷,为未来开发物理感知AI系统提供了重要指导。
    至顶网  科技行者  2025-05-29 10:26:09  
  • 搭载黄山1号、全网通eSIM,华米科技手表新品能否破局智能穿戴市场?

    日前,华米科技在北京举行2019夏季新品发布会,正式发布两款旗舰新品:AMAZFIT智能手表2 和 AMAZFIT米动健康手表,分别面向智能通话和健康监测领域。
    至顶网  科技行者  2019-06-12 19:47:56  
  • 商汤绝影三度亮相上海车展,AI大模型打造智能汽车量产落地新范式

    2023上海国际汽车工业展览会隆重举办,本届车展主题为“拥抱汽车行业新时代”,聚焦科技浪潮下汽车产业的创新变革。
    至顶网  业界供稿  2023-04-20 17:43:17  
  • 从0到1:微软研究院打造全新BitNet v2,让1比特大语言模型以4比特运行效率翻倍

    想象一下,你有一辆非常省油的汽车(比如BitNet b1.58这样的1比特模型),但每次加油都必须使用高级燃油(8比特激活值)。虽然车辆本身很节能,但燃油成本仍然不低。这正是当前大语言模型面临的困境。
    至顶网  科技行者  2025-04-29 12:25:57  
  • 马里兰大学新研究:让AI不再被"套路",如何让机器更可靠地验证信息真假

    马里兰大学研究团队开发了"去预设"方法,通过将复杂声明分解为无预设前提的简单问题,让AI像侦探般系统性验证每个假设。该方法显著提升AI信息验证准确率2-5%,大幅降低对提示词变化的敏感性,为构建更可靠的AI系统提供新思路。研究在生物医学等复杂领域表现尤其出色。
    至顶网  科技行者  2025-09-02 09:32:34  
  • 北京大学与美团联合破解AI推理难题:像厨师配菜一样让AI学会多路径思考

    北京大学与美团联合研究团队提出轮廓引导路径探索(OPE)方法,解决AI并行推理中的"互信息饱和"问题。通过先生成多样化策略轮廓再执行具体推理,避免多条思路重复收敛的困境。在数学推理测试中,该方法显著提升了复杂问题的解决成功率,为AI推理能力的可靠性提升提供了新的技术路径。
    至顶网  科技行者  2026-02-11 15:59:48  
  • R1-代码解释器:通过有监督学习和强化学习训练大型语言模型进行代码推理

    这篇论文介绍了R1-Code-Interpreter,一种通过有监督学习和强化学习训练大型语言模型进行代码推理的新方法。研究团队收集了144个推理和规划任务,利用多轮训练教会模型自主决定何时使用文本推理或生成代码。最终的14B模型在测试集上将准确率从44.0%提高到64.1%,超过纯文本GPT-4o并接近带Code Interpreter的GPT-4o。研究揭示了SFT阶段的关键作用,并发现模型展现出自发的自我检查行为,为开源模型提供了与商业模型竞争的代码解释器能力。
    至顶网  科技行者  2025-06-06 11:25:15  
  • 环信连续两年斩获“中国企业服务创新成长50强”

    12月5日-12月6日,由创业邦主办的“2018创业邦100未来领袖峰会”在北京国家会议中心隆重举行。
    至顶网  业界供稿  2018-12-10 16:32:36  
  • 小公司如何训练出超越巨头的AI网络助手?香港科技大学团队的"探索进化"新方案

    香港科技大学团队提出WebExplorer框架,通过"模型驱动探索"和"迭代查询演化"两阶段生成高质量训练数据,成功训练出80亿参数的WebExplorer-8B模型。该模型在多个信息搜索基准测试中超越了720亿参数的大型模型,支持长达100轮的工具调用和128K上下文长度,展现了开源AI在网络助手领域的突破潜力。
    至顶网  科技行者  2025-09-24 13:55:36  
  • Writer 推出 Palmyra X5,以 75% 降低的成本提供接近 GPT-4.1 水平的表现

    Writer 推出全新 LLM Palmyra X5,配备百万标记窗口,利用混合注意力和专家混合技术,在降低成本的同时实现接近 GPT-4.1 的性能,助力企业部署高效 AI 自动化。
    至顶网  VentureBeat  2025-04-29 09:57:06  
  • 仅需单一数据即可超越强化学习:Ubiquant研究团队揭示的单样本熵最小化训练法突破

    研究人员训练了13,440个大型语言模型,发现熵最小化方法仅需一个未标记数据和10步优化,就能实现比传统强化学习更好的性能提升。这种"单样本熵最小化"完全无监督,基于两个简单假设:语言模型生成过程本质上是随机的,且正确答案通常熵值更低。研究表明该方法能使模型logits分布向右偏移,增强置信度,对推理能力产生显著提升,平均提高24.7个百分点。这一发现或将重塑大型语言模型的后训练范式。
    至顶网  科技行者  2025-06-03 15:15:55  
  • UniR:为冻结大语言模型设计的通用型、可组合、即插即用的推理器

    UniR(Universal Reasoner)是一种创新的推理增强方法,可为冻结的大语言模型提供即插即用的推理能力。由韩国科学技术院研究团队开发,该方法将推理能力分解为独立的轻量级模块,无需改变主模型结构。UniR的核心优势在于高效训练(仅更新小型推理模块)、出色的模型间迁移能力(小模型可指导大模型)以及模块组合能力(多个专用模块可通过logits相加组合使用)。在数学推理和翻译测试中,UniR显著超越现有微调方法,展示了轻量级模块如何有效增强大语言模型的推理能力。
    至顶网  科技行者  2025-06-02 19:21:14  
©2019 北京第二十六维信息技术有限公司(至顶网)版权所有.
京ICP备15039648号-7  京ICP证161336号  京公网安备11010802021500号