用了 0.092042秒,为您找到大小 单双 技巧 集锦 罔芷 88pkee 驻测相关内容3162 条
  • Amazon 混合模型与智能代理,重塑智能 AI 助手 Alexa

    亚马逊正在重塑其旗舰语音助手 Alexa,通过整合 AI 代理、模型混合和浏览器操作能力,打造更智能的 Alexa+。新版本不仅可以主动提供个性化信息,还能理解复杂指令并完成多步骤任务。亚马逊希望通过这种创新方式,让 Alexa 成为更强大、更智能的家庭语音助手。
    至顶网  VentureBeat  2025-02-27 16:20:16  
  • 戴尔科技全新发布“新一代信息技术”赋能新基建!

    戴尔科技集团全球执行副总裁、大中华区总裁黄陈宏认为,新基建有“四新”,依靠新技术,特别是信息技术、大数据技术,激发新需求、创造新模式,新基建需要新人才,新基建需要新的PPP模式。
    至顶网  戴尔  2020-07-13 18:01:25  
  • 洞见科技携手阿里云,以“隐私计算+云”推动场景应用大规模落地

    洞见科技正是隐私计算领域的领军力量之一。
    至顶网  业界供稿  2021-12-30 10:30:48  
  • 人工智能是如何改变音乐行业的?

    也许每个人都记得曾经反复购买Fleetwood Mac乐队《Rumors》专辑的日子,黑胶唱片、盒式磁带、CD、迷你光盘和数字下载,这些形式的不断变化证明音乐行业一直在不断地发展,而这种发展通常是以粉丝作为代价。
    至顶网  至顶网软件频道  2019-04-25 16:57:37  
  • KVzip:全新压缩技术让AI大模型记忆力翻倍,用"上下文重建"解决查询无关的KV缓存压缩

    这篇研究介绍了KVzip,一种创新的查询无关KV缓存压缩方法,通过上下文重建机制为大型语言模型提供高效存储解决方案。该技术能将KV缓存大小减少394倍,同时提高解码速度约2倍,在各种任务上性能几乎不受影响。不同于传统查询相关的压缩方法,KVzip创建可在多种查询场景下重用的通用压缩缓存,特别适合个性化AI助手和企业信息检索系统。研究在LLaMA3.1-8B、Qwen2.5-14B和Gemma3-12B等多种模型上进行了验证,处理长度高达17万词元的文本,并能与KV缓存量化等其他优化技术无缝集成。
    至顶网  科技行者  2025-06-03 15:18:58  
  • SVG2: 通过语义感知排列实现视频生成加速,伯克利与MIT团队带来视频AI重大突破

    加州大学伯克利分校、MIT和斯坦福联合研发的SVG2技术通过语义感知排列实现了视频生成的重大加速。该方法巧妙解决了现有稀疏注意力机制中的两大瓶颈:识别不准确和计算浪费。通过k-means聚类对像素按语义特性分组并重排,SVG2在保持高质量的同时将生成速度提升至2.3倍,使原本需30分钟的视频生成缩短至13分钟,为实用化AI视频创作铺平了道路。
    至顶网  科技行者  2025-05-30 15:07:29  
  • NAIT日本团队突破传统!让AI不再被"记忆长度"束缚的神奇编码器

    日本奈良先端科学技术大学院大学研究团队提出SeqPE方法,突破传统AI位置编码局限。该方法像教AI"数数"一样处理位置信息,支持任意长度文本和图像处理。通过序列化表示和两个训练辅助器,SeqPE在语言建模、问答和图像分类中显著超越现有方法,为通用AI系统发展奠定重要基础。
    至顶网  科技行者  2025-06-23 09:25:09  
  • 人工智能学会了分享知识:Yale大学团队让AI智能体拥有"共同记忆"

    Yale大学等机构联合开发的Agent KB系统让AI助手们能够像人类一样分享经验和知识,通过"师生协作"模式和跨领域知识迁移,在GAIA和SWE-bench基准测试中取得了显著的性能提升,其中最困难任务的成功率提升了近20个百分点,为AI发展开辟了"集体智慧"的新范式。
    至顶网  科技行者  2025-07-18 09:35:18  
  • 如何利用人工智能撰写简历

    本文详细介绍了如何通过 ChatGPT 等 AI 工具构建并优化个人简历,包括资料整合、格式调整和改进建议,帮助求职者在激烈竞争中突出优势。
    至顶网  cnet  2025-05-06 10:07:38  
  • 英伟达推出Llama-Nemotron:开源推理优化的高效思维模型

    想象一下,如果传统AI模型是一辆可以载你去任何地方的汽车,那么这些新的"思维模型"就像是既能当汽车用,又可以变身为越野车的变形金刚。在平坦道路上,它们像普通汽车一样高效运行;遇到复杂地形,它们就能切换到更强大的思维模式,慢慢思考并解决困难问题。英伟达的这项技术突破正是要让这种转换变得更加自然、高效。
    至顶网  科技行者  2025-05-06 11:39:12  
  • CNBPS 2020圆满结束,云原生全栈成为新趋势

    作为国内云原生领域的标杆会议之一,CNBPS2020聚焦云原生最佳实践,汇聚最新云原生技术趋势和最全云原生技术栈。
    至顶网  业界供稿  2020-12-01 17:33:54  
  • "我全部都要!"

    公司客户多了,业务量上去了,数据却爆炸了。我们一方面想把数据都存起来,同时剔除重复内容节省空间,另一方面希望能够随时访问这些资料,时不时搞个搜索分析,最好能同位迁移到云端。最重要的是,要是具备应付突发灾难的能力,丢了文件什么的也能立马恢复。
    至顶网  戴尔易安信  2018-10-29 15:46:17  
  • 谷歌DeepMind突破性发现:AI如何学会"想象"和组合概念

    谷歌DeepMind研究团队发现AI系统能够自发学会组合泛化能力,即将已知概念重新组合理解全新组合。研究揭示当训练数据覆盖约70%基础概念组合时,AI会突然获得"想象力",能处理从未见过的概念组合。这一突破为构建更智能灵活的AI系统提供了理论基础,未来AI将能像人类一样举一反三,处理全新场景和任务。
    至顶网  科技行者  2025-08-25 12:28:09  
  • UFT:统一监督式和强化式微调,打破大语言模型学习与思考的隔阂

    这篇来自麻省理工学院研究团队的论文提出了"统一微调"(UFT)方法,创新性地融合了监督式微调(SFT)和强化式微调(RFT)的优势。传统上,SFT擅长让模型"记忆"标准答案但易过拟合,RFT则培养模型"思考"能力但依赖基础模型强度。UFT通过部分解答提示和混合目标函数,让模型同时获得"学习"和"思考"的能力,实验证明它在不同规模模型和各类推理任务上均优于现有方法,且理论上能将RFT的指数级采样复杂度降至多项式级,大幅提升训练效率。
    至顶网  科技行者  2025-05-30 11:15:26  
  • 汽车行业AI转型:缓慢的采用和错失的机会

    汽车行业是全球最高科技行业之一——所以本周发表的一份报告,从表面上看,有点令人意外。
    至顶网  至顶网人工智能频道  2019-03-29 14:21:41  
  • 上海交通大学团队让AI学会挑食:大语言模型预训练的数据选择新突破

    上海交通大学团队开发的OPUS框架解决了AI大语言模型训练中的关键问题:如何根据具体优化器特性智能选择训练数据。该方法通过优化器诱导的投影实用性选择,仅增加4.7%计算开销就实现了平均2.2%的性能提升和8倍的训练效率。实验表明OPUS在多种场景下都能显著降低数据需求,为大规模AI训练提供了更经济高效的解决方案。
    至顶网  科技行者  2026-02-11 15:53:54  
  • Nvidia发布TensorRT-LLM开源软件 提升高端GPU芯片上的AI模型性能

    Nvidia近日宣布推出一款名为TensorRT-LLM的新开源软件套件,扩展了Nvidia GPU上大型语言模型优化的功能,并突破了部署之后人工智能推理性能的极限。
    至顶网  至顶网计算频道  2023-09-11 09:00:50  
  • 揭秘Trillion 7B:突破性的韩语为中心多语言大模型技术解析

    想象一下,这就像是在一场马拉松比赛中,有些选手获得了高级跑鞋和专业训练营,而其他选手却只能穿着普通鞋子,自行训练。结果可想而知——差距只会越拉越大。Trillion Labs的研究人员正是看到了这一问题,决定寻找一种新的解决方案。
    至顶网  科技行者  2025-04-25 14:22:18  
  • MIT和Jina AI团队联手打造:小身材大能量的代码搜索新利器

    MIT和Jina AI联合开发的jina-code-embeddings代码嵌入模型,通过改造预训练代码生成模型实现高效代码检索。该模型支持自然语言查询代码、技术问答和跨语言代码搜索,尽管参数规模较小(0.5B-1.5B),但在25项基准测试中表现优异,为AI辅助编程和智能开发环境提供了高性价比的基础工具。
    至顶网  科技行者  2025-09-05 11:26:15  
  • R2R:使用小型-大型模型令牌路由高效导航分歧推理路径

    最近来自清华大学、无限极AI和上海交通大学的研究团队提出了一种名为"通向罗马之路"(R2R)的创新方法,可以在小型和大型语言模型之间进行智能令牌路由。研究发现,小型模型与大型模型的推理路径差异主要源于少量"分歧令牌"。R2R方法只在这些关键令牌上使用大模型,其余时间使用小模型,既保证了推理质量,又提高了效率。实验表明,使用平均5.6B参数的R2R方法超越了14B参数模型的性能,同时提供了2.8倍的速度提升。
    至顶网  科技行者  2025-06-01 18:58:56  
©2019 北京第二十六维信息技术有限公司(至顶网)版权所有.
京ICP备15039648号-7  京ICP证161336号  京公网安备11010802021500号