搜一下
用了 0.103713秒,为您找到
mg
娱乐
公司
什么
網纸
YB233
相关内容9289 条
1997年,乔布斯在WWDC闭幕环节做了唯一一场即兴问答:我们要做“更好的产品”,而非“不同的产品”,十年后,iPhone发布
乔布斯在1997年WWDC的传奇问答中,直面批评、分享战略转型:聚焦意味着勇敢说"不",创新不是为不同而不同,而是做到"好得多很多",产品必须从用户体验倒推技术。这场对话奠定了苹果未来20年的成功基因。
至顶网
至顶AI实验室 2025-06-11 18:35:20
让AI推理像人一样思考,但又要快得多:中山大学团队的"智能剪刀"如何给O1模型瘦身
中山大学团队针对OpenAI O1等长思考推理模型存在的"长度不和谐"问题,提出了O1-Pruner优化方法。该方法通过长度-和谐奖励机制和强化学习训练,成功将模型推理长度缩短30-40%,同时保持甚至提升准确率,显著降低了推理时间和计算成本,为高效AI推理提供了新的解决方案。
至顶网
科技行者 2025-09-12 19:48:25
Databricks全面发力企业AI:推出智能代理与数据库解决方案应对复杂性挑战
Databricks联合创始人兼CEO Ali Ghodsi在Data+AI Summit上宣布了多个新产品,如Agent Bricks和Lakebase,旨在简化企业AI应用开发、降低高成本及解决数据平台锁定问题。
至顶网
SiliconANGLE 2025-06-13 07:57:09
苏州大学团队突破AI数学推理瓶颈:让小模型也能精准找到错误步骤
苏州大学团队提出SCAN框架,通过分析AI模型在数学推理标注中的噪声分布规律,设计出高效的数据合成和鲁棒训练方法。该方法仅需传统方法6%的计算成本,就能让小模型达到甚至超越大模型的数学错误检测性能,为过程奖励学习领域带来重大突破。
至顶网
科技行者 2025-09-28 09:42:46
UC Berkeley团队重磅发现:为
什么
AI再聪明,也有些问题必须"慢慢来"?
UC伯克利团队通过理论分析和实证研究发现,许多重要AI任务(如复杂推理、物理模拟、决策制定)本质上需要串行计算,无法通过并行加速解决。研究提出"串行缩放假说",证明当前主流AI架构在这些问题上存在根本局限,呼吁开发支持深度串行推理的新型AI系统,为未来AI发展指明新方向。
至顶网
科技行者 2025-07-25 15:04:34
清华大学团队推出革命性AI记忆压缩技术,让机器像人类一样聪明地"遗忘"
清华大学团队开发出革命性的张量积注意力技术,让AI系统学会"智能遗忘",将传统AI的完整记忆模式转变为类似人脑的选择性记忆。该技术通过巧妙的数学分解,将复杂信息压缩为关键特征,在保持甚至提升性能的同时,内存占用减少90%,处理速度显著提升,特别适用于长文档处理,为AI应用的普及和效率提升开辟了新路径。
至顶网
科技行者 2025-09-18 11:10:53
大语言模型能否像人类一样产生意见分歧?苏黎世联邦理工学院团队揭示AI标注者的局限性
苏黎世联邦理工学院团队通过大规模实验发现,当前主流大语言模型在预测人类标注分歧方面存在显著局限。研究对比了RLVR和RLHF两类模型,发现RLVR模型虽然擅长处理标准化任务,但在理解观点多样性方面表现不佳。这一发现对AI标注系统的实际应用具有重要指导意义。
至顶网
科技行者 2025-06-30 10:52:42
清华大学突破性发现:让AI像人类一样理解和表达情感的新方法
清华大学研究团队首次提出情感认知融合网络(ECFN),让AI能像人类一样理解和表达情感。该系统通过多层次情感处理架构,在情感识别准确率上比现有最佳系统提升32%,情感表达自然度提升45%。研究突破了传统AI情感理解的局限,实现了跨模态情感融合、动态情感追踪和个性化情感建模,为医疗、教育、客服等领域带来革命性应用前景。
至顶网
科技行者 2025-06-18 13:07:01
如何通过互联性的方法提升威胁管理水平?
威胁情报本身与令威胁情报在组织范围内可执行的因素之间存在脱节。在当今威胁订阅源非常丰富的情况下,收集威胁情报并不是问题所在,不过威胁的数量却令安全分析人员难以确定需要优先处理的关注事项
至顶网
IBM 2020-11-19 12:24:57
Micro-Act:用自主推理解决问答中的知识冲突
这篇研究介绍了Micro-Act,一种创新框架,旨在解决问答系统中的知识冲突问题。由香港大学等机构研发的这一方法能够自动感知上下文复杂度,并将知识源分解成一系列细粒度比较,有效克服了传统方法在处理复杂冲突时的局限性。实验表明,Micro-Act在五个基准数据集上显著超越了现有技术,并在无冲突场景中保持稳健性能,为构建更可靠的检索增强生成系统提供了新思路。
至顶网
科技行者 2025-06-09 11:15:40
哈工大团队让机器人学会"聪明偷懒":像人脑一样高效处理复杂指令
哈工大研究团队开发的CogVLA系统通过模仿人脑认知机制,让机器人学会"智能筛选"信息,根据任务指令只关注重要内容。该系统采用三阶段渐进式处理架构,在LIBERO基准测试中达到97.4%成功率,同时训练成本降低2.5倍,推理速度提升2.8倍,为机器人技术的实用化和普及化奠定了重要基础。
至顶网
科技行者 2025-09-04 14:31:44
思维链就是思维么?OpenAI o1系列发布,开启推理新范式
著名的教育家约翰·杜威这样定义思维:“以一种观察到的事物为依据,去推测或判断出其他的事物,然后将作为依据的事物当做后者推测数的事物的机遇或者基础,从而产生信念。”
至顶网
赵晓勤 2024-09-13 16:40:26
麻省大学安姆赫斯特分校研究团队打造"有记忆的社交机器人":Ella能在虚拟社区中学习、交友并影响他人
麻省大学安姆赫斯特分校等机构联合开发了名为Ella的虚拟社交机器人,它拥有类似人类的长期记忆系统,能在3D虚拟社区中学习、社交和适应。实验显示,Ella在说服他人参加聚会和领导团队完成任务方面表现卓越,成功率分别达到53.4%和32.5%,远超其他方法。这项研究为开发能与人类真正共存的智能体奠定了基础。
至顶网
科技行者 2025-07-04 10:19:29
2018AI Cloud生态国际峰会在杭举行---海康威视阐述其开放战略
3月30日,“智涌钱塘”2018AI Cloud生态国际峰会在G20主会场·杭州国际博览中心隆重举行。
至顶网
至顶网存储频道 2018-03-30 15:22:29
斯坦福大学揭秘:AI如何通过"拟人化"变得更聪明更可信
斯坦福大学研究团队通过大规模实验发现,AI系统的拟人化程度显著影响用户的信任和依赖行为。适度拟人化能提升信任度40%,但过度拟人化可能导致用户失去独立判断能力。研究揭示了年龄、性别等因素对拟人化接受度的影响,为AI设计提供了科学依据,强调需要在不同应用场景中平衡拟人化程度与用户理性判断的关系。
至顶网
科技行者 2025-08-25 12:27:54
TAO系列10-物件检测的模型训练与优化-2
TAO工具提供提供QAT(Quantize Aware Training)量化感知的训练模式,不过目前QAT效果还在验证当中,倒也不急于使用,因此我们还是以标准模式来训练。
至顶网
业界供稿 2022-05-10 14:53:02
微软团队重磅突破:让AI大模型变成"极简主义者",仅用4比特也能聪明如初
微软研究院团队开发的BitNet v2技术实现了AI大语言模型的重大突破,通过创新的H-BitLinear模块和哈达玛变换技术,成功将模型激活精度从8位降低到4位,同时保持了几乎相同的性能表现。这项技术显著提高了模型的计算效率和硬件利用率,为AI模型在边缘设备和批量推理场景中的部署开辟了新道路,有望推动AI技术的更广泛普及应用。
至顶网
科技行者 2025-07-15 09:59:57
大语言模型的"方向盘"失控了?加州大学团队揭秘AI行为控制的隐藏陷阱
加州大学团队首次全面评估了五种主流AI行为控制技术,发现当前方法在提升AI安全性的同时会产生意想不到的副作用。研究通过SteeringControl框架测试发现,不同控制方法在不同AI模型上效果差异巨大,且普遍存在"行为纠缠"问题。该研究为AI安全控制技术的发展提供了重要诊断工具和改进方向。
至顶网
科技行者 2025-09-29 14:29:59
自曝一下,我就是勒索病毒
戴尔“避风港”方案针对我们勒索病毒及破坏性网络攻击提供了全面的解决方案。
至顶网
戴尔 2021-08-06 13:38:48
数字孪生:重塑行业运营新格局
数字孪生技术的基本思路,就是在元宇宙中重现现实世界中的对象、过程和环境。
至顶网
至顶网软件与服务频道 2024-01-03 11:42:42
<
上一页
257
258
259
260
261
262
263
264
265
266
下一页
>
©2019 北京第二十六维信息技术有限公司(至顶网)版权所有.
京ICP备15039648号-7
京ICP证161336号 京公网安备11010802021500号