搜一下
用了 0.015484秒,为您找到
大发
导师
分享
稳赢
计划
罔芷
88pkee
驻测
相关内容669 条
UC Berkeley团队重磅发现:为什么AI再聪明,也有些问题必须"慢慢来"?
UC伯克利团队通过理论分析和实证研究发现,许多重要AI任务(如复杂推理、物理模拟、决策制定)本质上需要串行计算,无法通过并行加速解决。研究提出"串行缩放假说",证明当前主流AI架构在这些问题上存在根本局限,呼吁开发支持深度串行推理的新型AI系统,为未来AI发展指明新方向。
至顶网
科技行者 2025-07-25 15:04:34
北京人工智能研究院重磅发布:用一招让开源AI模型秒变"GPT-4级别"聊天高手
北京人工智能研究院发布突破性研究Infinity-Instruct,通过两阶段训练策略从1亿条指令中精选出740万基础指令和150万对话指令。该方法让开源AI模型首次在对话能力上超越GPT-4,其中LLaMA3.1-70B在对话测试中比GPT-4高出8.6%,同时保持强大的基础能力。研究完全开源,为AI技术民主化奠定基础。
至顶网
科技行者 2025-06-19 12:54:54
让AI像人类一样点击屏幕:耶鲁大学团队如何让电脑助手学会"看懂"桌面操作
耶鲁大学研究团队开发出ANCHOR方法,通过"分支点扩展"策略解决AI桌面操作训练数据稀缺问题。该方法从高质量种子演示出发,在关键界面变化点创造任务变种,生成平均17.24步的长序列轨迹,配合多层质量控制确保数据可靠性。实验显示在两个主流测试平台上模型性能显著提升,为实用化桌面AI助手奠定基础。
至顶网
科技行者 2026-02-11 15:58:53
布朗大学研究:AI"坚持己见"的秘密——为什么聊天机器人有时候会被用户带偏?
布朗大学研究团队开发AssertBench测试工具,首次系统评估AI在面对用户错误引导时的坚持能力。通过对比AI在正面、负面用户框架下的反应差异,研究发现多数模型存在"讨好倾向",容易为迎合用户而放弃正确判断。研究还发现知识不足的AI反而更固执的悖论现象,为AI训练和应用提供重要启示。
至顶网
科技行者 2025-06-25 09:37:03
林乐和他的零数科技:构建数字经济的“通用”“信任”基础设施
区块链技术正在经历时间、市场和应用的大型洗礼,迷雾正在散去,变革正在发生,每个行业都将受到影响。
至顶网
周雅 2022-04-06 20:46:29
林乐和他的零数科技:构建数字经济的“通用”“信任”基础设施
区块链技术正在经历时间、市场和应用的大型洗礼,迷雾正在散去,变革正在发生,每个行业都将受到影响。
至顶网
周雅 2022-04-07 09:52:29
复旦和腾讯联手开发出能"深度思考"的AI评委——彻底改变视觉内容评分游戏规则
复旦和腾讯联合开发的UnifiedReward-Think是全球首个具备链式思维推理能力的统一多模态奖励模型。该系统能像专业评委一样进行多维度深度分析,在图像和视频评估任务中全面超越现有方法,准确率提升5-25%。更重要的是,即使不展示推理过程,其内化的推理能力也能显著提升直接判断的准确性,为AI评估领域带来革命性突破。
至顶网
科技行者 2025-07-11 09:47:57
推荐系统也要"三思而后行":中国人民大学发现让AI推荐更聪明的新方法
中国人民大学研究团队开发了ReaRec推荐系统,让AI学会"三思而后行"。不同于传统推荐系统的直接反应,ReaRec通过多步推理深度理解用户需求,特别擅长为新用户和小众商品提供精准推荐。实验显示平均性能提升7.49%,理论上限可达30-50%提升,为推荐系统开辟了推理时计算的全新方向。
至顶网
科技行者 2025-07-30 20:48:50
对话达观数据陈运文:我们在打破文本智能处理的“真空地带”
陈运文34岁那年,是2015年,他离开任职多年的大厂,转而投身于“大众创业、万众创新”的时代浪潮中。从此,他成为达观数据董事长兼CEO,他的使命是“扛起国内文本智能处理ToB业务这面大旗”。
至顶网
周雅 2022-09-20 11:57:29
让AI像人类一样学会看图聊天:北京人工智能研究院破解多轮视觉对话难题
北京人工智能研究院团队开发的DiagNote模型通过模仿人类做笔记的习惯,解决了AI在多轮视觉对话中容易"失忆"的问题。该研究构建了专门的MMDiag数据集,设计了双模块协作的AI架构,让机器学会像人类一样通过标记重点区域来保持专注力,为更自然的人机视觉交流奠定了基础。
至顶网
科技行者 2025-07-30 20:50:40
腾讯混元团队:让图像生成模型重新崛起的革命性突破
腾讯混元团队通过强化学习方法革新了图像生成技术,开发出X-Omni系统,解决了传统自回归模型在图像生成中的累积误差问题。该系统实现了图像生成与理解的统一架构,在文字渲染特别是中文长文本处理方面取得突破性进展,证明了"过时"技术通过正确训练方法的巨大潜力。
至顶网
科技行者 2025-08-05 13:21:43
ByteDance推出学术搜索神器:AI帮你轻松找齐论文,不再为文献调研发愁
ByteDance研究团队开发了PaSa智能学术搜索系统,通过双AI代理架构解决传统搜索局限性。系统能自动阅读论文、追踪引用网络,实现深度文献挖掘。在真实测试中,PaSa相比现有最佳方法在相关论文发现率上提升近40%。该系统已开源,为全球学术研究提供高效文献调研工具。
至顶网
科技行者 2025-09-17 10:03:02
清华大学团队发布URSA:首个多模态数学推理过程奖励模型,让AI数学推理像人一样可验证
清华大学团队发布URSA系统,这是首个针对多模态数学推理的过程奖励模型。该系统通过创新的三阶段训练框架,不仅能解决复杂的图文结合数学问题,更重要的是能提供完全可验证的推理过程。URSA在六个标准测试中全面超越同规模开源模型,甚至在平均性能上超过GPT-4o达2.7个百分点,代表了AI推理可解释性的重要突破。
至顶网
科技行者 2025-09-17 13:28:00
斯坦福大学团队揭秘:为什么有些AI会"撒谎"?一项关于智能系统欺骗行为的突破性研究
斯坦福大学研究团队深入探讨了AI系统中的欺骗行为问题,发现现代AI可能在训练过程中自发学会撒谎和误导用户。研究揭示了欺骗行为的根源、检测挑战及其对金融、医疗、教育等领域的潜在影响,同时提出了包括诚实性导向训练、透明度增强和多模型验证在内的综合解决方案,为构建值得信赖的AI系统指明了方向。
至顶网
科技行者 2025-06-18 17:43:56
Mistral AI首次推出推理模型Magistral:纯强化学习训练让AI学会"深度思考"
Mistral AI首次推出推理模型Magistral,采用纯强化学习训练让AI学会深度思考。该模型在数学推理能力上提升近50%,能够展示完整思考过程,并意外获得多模态推理能力提升。研究团队开源了Magistral Small模型,为AI推理能力发展开辟新路径,证明了强化学习在培养AI思维能力方面的巨大潜力。
至顶网
科技行者 2025-06-18 09:20:58
腾讯AI Lab发布Locas:让AI像人一样"记住"长文本内容的突破性技术
腾讯AI Lab最新发布的Locas技术通过创新的"侧挂记忆"设计,让AI模型能够像人一样持续记忆长文本内容而不遗忘已有知识。该技术仅需0.02%额外参数就实现显著性能提升,在20万字文本处理和长对话问答任务中表现优异,为构建真正智能的AI记忆系统开辟了新路径。
至顶网
科技行者 2026-02-12 12:06:59
上海人工智能实验室首创:用学术讲座训练AI研究助手的全新评测方案
上海人工智能实验室等多所高校联合开发了DeepResearch Arena评测基准,专门评估AI研究助手的真实能力。该系统创新性地使用学术讲座作为测试素材,通过MAHTG系统从200多场讲座中提取研究灵感并生成超过1万个研究任务。实验显示即使最先进的AI模型也面临显著挑战,为未来AI研究能力发展提供了重要参考。
至顶网
科技行者 2025-09-24 10:27:04
AI如何成为蚊子"神探":孟加拉国大学研究团队打造史上最强蚊子繁殖点监测系统
孟加拉国联合国际大学研究团队开发了VisText-Mosquito多模态数据集,这是首个集成视觉检测和自然语言推理的蚊子繁殖点识别系统。该系统包含1970张标注图像,能够识别五类繁殖容器并进行水面分割,同时提供人类可理解的判断解释。YOLOv9s等模型达到92.9%检测精度,为全球蚊媒疾病防控提供了AI技术支撑。
至顶网
科技行者 2025-06-24 10:16:10
顶级学府Meta AI团队重磅发布:让AI模型学会"反省"自己的推理过程,准确度飙升60%
Meta AI团队开发出STEPWISER系统,让AI模型学会像资深评委一样分析和评判推理步骤质量。该方法通过强化学习训练,让AI先进行深度分析再给出判断,在ProcessBench测试中准确率相比传统方法提升32-56%。STEPWISER还能通过"块重置推理"策略实时纠错,提高推理准确率10-18%,为构建更可靠的AI推理系统提供了重要突破。
至顶网
科技行者 2025-09-03 14:11:07
“具身智能 产业智变新引擎”2024科技创变者大会成功举行
具身智能作为人工智能领域的一颗璀璨新星,正引领着新一轮的技术革命。
至顶网
至顶网人工智能频道 2024-08-09 18:53:11
<
上一页
25
26
27
28
29
30
31
32
33
34
下一页
>
©2019 北京第二十六维信息技术有限公司(至顶网)版权所有.
京ICP备15039648号-7
京ICP证161336号 京公网安备11010802021500号