用了 0.027084秒,为您找到大发 大小 单双 有人 带么罔芷 88pkee 驻测相关内容1771 条
  • NAIT日本团队突破传统!让AI不再被"记忆长度"束缚的神奇编码器

    日本奈良先端科学技术大学院大学研究团队提出SeqPE方法,突破传统AI位置编码局限。该方法像教AI"数数"一样处理位置信息,支持任意长度文本和图像处理。通过序列化表示和两个训练辅助器,SeqPE在语言建模、问答和图像分类中显著超越现有方法,为通用AI系统发展奠定重要基础。
    至顶网  科技行者  2025-06-23 09:25:09  
  • 英伟达推出Llama-Nemotron:开源推理优化的高效思维模型

    想象一下,如果传统AI模型是一辆可以载你去任何地方的汽车,那么这些新的"思维模型"就像是既能当汽车用,又可以变身为越野车的变形金刚。在平坦道路上,它们像普通汽车一样高效运行;遇到复杂地形,它们就能切换到更强大的思维模式,慢慢思考并解决困难问题。英伟达的这项技术突破正是要让这种转换变得更加自然、高效。
    至顶网  科技行者  2025-05-06 11:39:12  
  • CNBPS 2020圆满结束,云原生全栈成为新趋势

    作为国内云原生领域的标杆会议之一,CNBPS2020聚焦云原生最佳实践,汇聚最新云原生技术趋势和最全云原生技术栈。
    至顶网  业界供稿  2020-12-01 17:33:54  
  • "我全部都要!"

    公司客户多了,业务量上去了,数据却爆炸了。我们一方面想把数据都存起来,同时剔除重复内容节省空间,另一方面希望能够随时访问这些资料,时不时搞个搜索分析,最好能同位迁移到云端。最重要的是,要是具备应付突发灾难的能力,丢了文件什么的也能立马恢复。
    至顶网  戴尔易安信  2018-10-29 15:46:17  
  • UFT:统一监督式和强化式微调,打破大语言模型学习与思考的隔阂

    这篇来自麻省理工学院研究团队的论文提出了"统一微调"(UFT)方法,创新性地融合了监督式微调(SFT)和强化式微调(RFT)的优势。传统上,SFT擅长让模型"记忆"标准答案但易过拟合,RFT则培养模型"思考"能力但依赖基础模型强度。UFT通过部分解答提示和混合目标函数,让模型同时获得"学习"和"思考"的能力,实验证明它在不同规模模型和各类推理任务上均优于现有方法,且理论上能将RFT的指数级采样复杂度降至多项式级,大幅提升训练效率。
    至顶网  科技行者  2025-05-30 11:15:26  
  • 用小艺知识问答嗨玩一夏,探索暑期生活新体验!

    近期华为在微博开启了「自在享一夏」活动,大家只需唤醒小艺,对小艺说“夏日旅行指南”,在包含“自在享一夏”文字的活动页截图,去微博#自在享一夏#话题页打卡并发布微博,就有机会获取HUAWEI Pura 70 Pro等超级大奖!
    至顶网  业界供稿  2024-08-05 16:54:03  
  • 汽车行业AI转型:缓慢的采用和错失的机会

    汽车行业是全球最高科技行业之一——所以本周发表的一份报告,从表面上看,有点令人意外。
    至顶网  至顶网人工智能频道  2019-03-29 14:21:41  
  • Nvidia发布TensorRT-LLM开源软件 提升高端GPU芯片上的AI模型性能

    Nvidia近日宣布推出一款名为TensorRT-LLM的新开源软件套件,扩展了Nvidia GPU上大型语言模型优化的功能,并突破了部署之后人工智能推理性能的极限。
    至顶网  至顶网计算频道  2023-09-11 09:00:50  
  • 揭秘Trillion 7B:突破性的韩语为中心多语言大模型技术解析

    想象一下,这就像是在一场马拉松比赛中,有些选手获得了高级跑鞋和专业训练营,而其他选手却只能穿着普通鞋子,自行训练。结果可想而知——差距只会越拉越大。Trillion Labs的研究人员正是看到了这一问题,决定寻找一种新的解决方案。
    至顶网  科技行者  2025-04-25 14:22:18  
  • R2R:使用小型-大型模型令牌路由高效导航分歧推理路径

    最近来自清华大学、无限极AI和上海交通大学的研究团队提出了一种名为"通向罗马之路"(R2R)的创新方法,可以在小型和大型语言模型之间进行智能令牌路由。研究发现,小型模型与大型模型的推理路径差异主要源于少量"分歧令牌"。R2R方法只在这些关键令牌上使用大模型,其余时间使用小模型,既保证了推理质量,又提高了效率。实验表明,使用平均5.6B参数的R2R方法超越了14B参数模型的性能,同时提供了2.8倍的速度提升。
    至顶网  科技行者  2025-06-01 18:58:56  
  • Mamba再下一城!上海AI Lab提出视频领域新SOTA VideoMamba!

    数源AI推荐的论文‘VideoMamba: State Space Model for Efficient Video Understanding‘介绍了VideoMamba模型,它通过线性复杂度运算符实现高效长视频理解。该模型克服了3D CNN和视频变换器的局限,具备可扩展性、敏感性、优越性和兼容性。
    至顶网  数源AI  2024-03-13 19:04:22  
  • Veritas:企业应该尽早行动,来构建面向多云的数据保护

    云和虚拟化技术的加速采用为中国企业带来了更多的IT复杂性,并由此产生了数据安全等挑战。
    至顶网  任新勃  2021-10-12 09:23:38  
  • 第十届全国管理案例精英赛中国政法大学校园突围赛成功举办

    2024年5月11日晚,第十届全国管理案例精英赛中国政法大学校园突围赛在学院路校区图书综合楼0320教室成功举办。大赛旨在通过对实际案例的分析和解决,锻炼参赛选手的团队合作能力、创新思维和解决问题的能力。
    至顶网  业界供稿  2024-05-24 11:09:51  
  • 极智AI | 解读大模型量化算法之GPTQ

    GPTQ 的核心思想是通过最小化量化引入的输出误差,实现高精度低比特量化。具体来说,GPTQ 在后量化过程中,针对每一层的权重矩阵,利用一小部分校准数据,最小化量化前后模型输出的差异。
    至顶网  极智视界  2024-10-10 17:04:28  
  • 云托管服务供应商必不可少的四大理由

    对大多数人来说,“云”一词与亚马逊网络服务、微软Azure和谷歌同义。这也能被理解,因为它们是目前为止最受认可和最成功的超大规模的公共云提供商。然而,这三位行业领导者并非注定会完全占据市场。
    至顶网  Danny Allan, Veeam产品策略副总裁  2019-08-13 11:49:09  
  • SK Telecom发布自主研发的韩语大语言模型

    韩国SK电信发布了A.X 3.1 Lite,这是一个70亿参数的韩语大语言模型,完全从零开始自主开发。该模型在1.65万亿多语言标记上训练,重点关注韩语内容,可在智能手机上运行且无需云端支持。模型在韩语多任务推理基准测试中表现优异,响应时使用的标记数比同类GPT模型少三分之一。已开源并应用于SK电信的A.dot语音助手,支持实时通话摘要等功能。
    至顶网  Forbes  2025-07-17 07:51:50  
  • 动态分层剪枝:让大型语言模型"减肥"更聪明

    这项研究提出了动态分层剪枝(DLP)方法,通过自动确定大型语言模型中各层的相对重要性来分配不同的剪枝率。与传统均匀剪枝方法相比,DLP在高稀疏度条件下表现优异,在70%稀疏度时可将LLaMA2-7B的困惑度降低7.79并提高平均准确率2.7%。DLP与多种模型压缩技术兼容,在CPU上可实现2.8x-3.7x的推理加速,为资源受限设备上部署大型语言模型提供了新方案。
    至顶网  科技行者  2025-06-07 16:01:23  
  • 重新思考大型语言模型推理的采样标准:基于能力-难度对齐的视角

    本研究提出了"能力-难度对齐采样"方法(CDAS),革新了大型语言模型强化学习训练中的数据采样策略。与传统方法不同,CDAS通过聚合历史表现差异实现更稳定的问题难度估计,并将模型能力与问题难度动态匹配。在多个数学推理基准测试中,CDAS达到了46.77%的最高平均准确率,同时比竞争策略提高了2.33倍的计算效率。研究还证明了CDAS在代码生成任务和更大型模型上的有效性,为提升大型语言模型的推理能力提供了高效可靠的新方法。
    至顶网  科技行者  2025-05-29 14:50:15  
  • 新华三首发Wi-Fi 7是否再次引发传统网络架构新变革?

    4月7日,紫光股份旗下新华三集团全球首发企业级智原生Wi-Fi 7 AP新品WA7638和WA7338。为什么说可以引发传统网络架构新变革?我们先来了解一下新华三的Wi-Fi 7 AP是一款什么样的产品。
    至顶网  董培欣  2022-04-13 13:56:04  
  • 戴尔OptiPlex 5000塔式机 可适用多种教学环境的电脑

    高校对于商用电脑的使用,一向是基于稳定为原则的。因为学生对于电脑的使用是频繁和近乎肆意的操作。频繁的软件更迭对电脑的性能有着多方位的考量。
    至顶网  戴尔  2023-01-13 17:50:20  
©2019 北京第二十六维信息技术有限公司(至顶网)版权所有.
京ICP备15039648号-7  京ICP证161336号  京公网安备11010802021500号