用了 0.022224秒,为您找到大发 大小 单双 有人 带么罔芷 88pkee 驻测相关内容1452 条
  • 2019至顶网公有云评测|应对流量冲击的挑战——AWS篇

    在2019年的公有云评测中,至顶网云能力小组将在对去年所发现问题进行复测的基础上,增加对公有云主机高可靠性和可扩展性的评测,AWS云主机测试报告如下:
    至顶网  至顶网云能力评估小组  2019-10-23 11:03:16  
  • Amazon 混合模型与智能代理,重塑智能 AI 助手 Alexa

    亚马逊正在重塑其旗舰语音助手 Alexa,通过整合 AI 代理、模型混合和浏览器操作能力,打造更智能的 Alexa+。新版本不仅可以主动提供个性化信息,还能理解复杂指令并完成多步骤任务。亚马逊希望通过这种创新方式,让 Alexa 成为更强大、更智能的家庭语音助手。
    至顶网  VentureBeat  2025-02-27 16:20:16  
  • 洞见科技携手阿里云,以“隐私计算+云”推动场景应用大规模落地

    洞见科技正是隐私计算领域的领军力量之一。
    至顶网  业界供稿  2021-12-30 10:30:48  
  • KVzip:全新压缩技术让AI大模型记忆力翻倍,用"上下文重建"解决查询无关的KV缓存压缩

    这篇研究介绍了KVzip,一种创新的查询无关KV缓存压缩方法,通过上下文重建机制为大型语言模型提供高效存储解决方案。该技术能将KV缓存大小减少394倍,同时提高解码速度约2倍,在各种任务上性能几乎不受影响。不同于传统查询相关的压缩方法,KVzip创建可在多种查询场景下重用的通用压缩缓存,特别适合个性化AI助手和企业信息检索系统。研究在LLaMA3.1-8B、Qwen2.5-14B和Gemma3-12B等多种模型上进行了验证,处理长度高达17万词元的文本,并能与KV缓存量化等其他优化技术无缝集成。
    至顶网  科技行者  2025-06-03 15:18:58  
  • SVG2: 通过语义感知排列实现视频生成加速,伯克利与MIT团队带来视频AI重大突破

    加州大学伯克利分校、MIT和斯坦福联合研发的SVG2技术通过语义感知排列实现了视频生成的重大加速。该方法巧妙解决了现有稀疏注意力机制中的两大瓶颈:识别不准确和计算浪费。通过k-means聚类对像素按语义特性分组并重排,SVG2在保持高质量的同时将生成速度提升至2.3倍,使原本需30分钟的视频生成缩短至13分钟,为实用化AI视频创作铺平了道路。
    至顶网  科技行者  2025-05-30 15:07:29  
  • 英伟达推出Llama-Nemotron:开源推理优化的高效思维模型

    想象一下,如果传统AI模型是一辆可以载你去任何地方的汽车,那么这些新的"思维模型"就像是既能当汽车用,又可以变身为越野车的变形金刚。在平坦道路上,它们像普通汽车一样高效运行;遇到复杂地形,它们就能切换到更强大的思维模式,慢慢思考并解决困难问题。英伟达的这项技术突破正是要让这种转换变得更加自然、高效。
    至顶网  科技行者  2025-05-06 11:39:12  
  • CNBPS 2020圆满结束,云原生全栈成为新趋势

    作为国内云原生领域的标杆会议之一,CNBPS2020聚焦云原生最佳实践,汇聚最新云原生技术趋势和最全云原生技术栈。
    至顶网  业界供稿  2020-12-01 17:33:54  
  • "我全部都要!"

    公司客户多了,业务量上去了,数据却爆炸了。我们一方面想把数据都存起来,同时剔除重复内容节省空间,另一方面希望能够随时访问这些资料,时不时搞个搜索分析,最好能同位迁移到云端。最重要的是,要是具备应付突发灾难的能力,丢了文件什么的也能立马恢复。
    至顶网  戴尔易安信  2018-10-29 15:46:17  
  • UFT:统一监督式和强化式微调,打破大语言模型学习与思考的隔阂

    这篇来自麻省理工学院研究团队的论文提出了"统一微调"(UFT)方法,创新性地融合了监督式微调(SFT)和强化式微调(RFT)的优势。传统上,SFT擅长让模型"记忆"标准答案但易过拟合,RFT则培养模型"思考"能力但依赖基础模型强度。UFT通过部分解答提示和混合目标函数,让模型同时获得"学习"和"思考"的能力,实验证明它在不同规模模型和各类推理任务上均优于现有方法,且理论上能将RFT的指数级采样复杂度降至多项式级,大幅提升训练效率。
    至顶网  科技行者  2025-05-30 11:15:26  
  • 用小艺知识问答嗨玩一夏,探索暑期生活新体验!

    近期华为在微博开启了「自在享一夏」活动,大家只需唤醒小艺,对小艺说“夏日旅行指南”,在包含“自在享一夏”文字的活动页截图,去微博#自在享一夏#话题页打卡并发布微博,就有机会获取HUAWEI Pura 70 Pro等超级大奖!
    至顶网  业界供稿  2024-08-05 16:54:03  
  • 汽车行业AI转型:缓慢的采用和错失的机会

    汽车行业是全球最高科技行业之一——所以本周发表的一份报告,从表面上看,有点令人意外。
    至顶网  至顶网人工智能频道  2019-03-29 14:21:41  
  • Nvidia发布TensorRT-LLM开源软件 提升高端GPU芯片上的AI模型性能

    Nvidia近日宣布推出一款名为TensorRT-LLM的新开源软件套件,扩展了Nvidia GPU上大型语言模型优化的功能,并突破了部署之后人工智能推理性能的极限。
    至顶网  至顶网计算频道  2023-09-11 09:00:50  
  • 揭秘Trillion 7B:突破性的韩语为中心多语言大模型技术解析

    想象一下,这就像是在一场马拉松比赛中,有些选手获得了高级跑鞋和专业训练营,而其他选手却只能穿着普通鞋子,自行训练。结果可想而知——差距只会越拉越大。Trillion Labs的研究人员正是看到了这一问题,决定寻找一种新的解决方案。
    至顶网  科技行者  2025-04-25 14:22:18  
  • R2R:使用小型-大型模型令牌路由高效导航分歧推理路径

    最近来自清华大学、无限极AI和上海交通大学的研究团队提出了一种名为"通向罗马之路"(R2R)的创新方法,可以在小型和大型语言模型之间进行智能令牌路由。研究发现,小型模型与大型模型的推理路径差异主要源于少量"分歧令牌"。R2R方法只在这些关键令牌上使用大模型,其余时间使用小模型,既保证了推理质量,又提高了效率。实验表明,使用平均5.6B参数的R2R方法超越了14B参数模型的性能,同时提供了2.8倍的速度提升。
    至顶网  科技行者  2025-06-01 18:58:56  
  • Mamba再下一城!上海AI Lab提出视频领域新SOTA VideoMamba!

    数源AI推荐的论文‘VideoMamba: State Space Model for Efficient Video Understanding‘介绍了VideoMamba模型,它通过线性复杂度运算符实现高效长视频理解。该模型克服了3D CNN和视频变换器的局限,具备可扩展性、敏感性、优越性和兼容性。
    至顶网  数源AI  2024-03-13 19:04:22  
  • Veritas:企业应该尽早行动,来构建面向多云的数据保护

    云和虚拟化技术的加速采用为中国企业带来了更多的IT复杂性,并由此产生了数据安全等挑战。
    至顶网  任新勃  2021-10-12 09:23:38  
  • 第十届全国管理案例精英赛中国政法大学校园突围赛成功举办

    2024年5月11日晚,第十届全国管理案例精英赛中国政法大学校园突围赛在学院路校区图书综合楼0320教室成功举办。大赛旨在通过对实际案例的分析和解决,锻炼参赛选手的团队合作能力、创新思维和解决问题的能力。
    至顶网  业界供稿  2024-05-24 11:09:51  
  • 极智AI | 解读大模型量化算法之GPTQ

    GPTQ 的核心思想是通过最小化量化引入的输出误差,实现高精度低比特量化。具体来说,GPTQ 在后量化过程中,针对每一层的权重矩阵,利用一小部分校准数据,最小化量化前后模型输出的差异。
    至顶网  极智视界  2024-10-10 17:04:28  
  • 云托管服务供应商必不可少的四大理由

    对大多数人来说,“云”一词与亚马逊网络服务、微软Azure和谷歌同义。这也能被理解,因为它们是目前为止最受认可和最成功的超大规模的公共云提供商。然而,这三位行业领导者并非注定会完全占据市场。
    至顶网  Danny Allan, Veeam产品策略副总裁  2019-08-13 11:49:09  
  • 动态分层剪枝:让大型语言模型"减肥"更聪明

    这项研究提出了动态分层剪枝(DLP)方法,通过自动确定大型语言模型中各层的相对重要性来分配不同的剪枝率。与传统均匀剪枝方法相比,DLP在高稀疏度条件下表现优异,在70%稀疏度时可将LLaMA2-7B的困惑度降低7.79并提高平均准确率2.7%。DLP与多种模型压缩技术兼容,在CPU上可实现2.8x-3.7x的推理加速,为资源受限设备上部署大型语言模型提供了新方案。
    至顶网  科技行者  2025-06-07 16:01:23  
©2019 北京第二十六维信息技术有限公司(至顶网)版权所有.
京ICP备15039648号-7  京ICP证161336号  京公网安备11010802021500号