用了 0.119003秒,为您找到大小 单双 技巧 集锦 罔芷 88pkee 驻测相关内容2142 条
  • 我国空气净化行业进一步发展 着眼“贴近消费者家居场景”的测试

    2022年10月,国家市场监督管理总局、国家标准化管理委员会正式批准发布GB/T 18801-2022 《空气净化器》国家标准
    至顶网  至顶网数字化转型频道  2022-11-22 18:48:39  
  • 交换机中的存储为何重要?

    存储在交换机中扮演着什么样的角色?
    至顶网  至顶网网络与安全频道  2022-04-21 11:42:13  
  • Red Hat宣布将生成式AI注入OpenShift、RHEL和大量开发者工具中

    企业软件巨头Red Hat近日在年度用户大会Red Hat Summit上发布了一系列与人工智能相关的公告。
    至顶网  至顶网软件与服务频道  2024-05-09 10:40:29  
  • 中国的AI时代,不能没有“根”

    随着“人工智能时代”这一全新阶段的出现,新挑战也已经出现——中国应如何保证在“人工智能时代”不落后,甚至领先全世界。答案在我看来就是3个字:根技术。
    至顶网  业界供稿  2021-07-07 16:19:43  
  • 面对市场的不确定性?随需而变,快人一步!

    当市场变幻莫测、未来充满不确定性,您的业务需求也可能需随之而变。保持灵活高弹性,能助您迅速调整、快速响应,确保业务能在竞争激烈的市场中脱颖而出的关键。面对数据中心建设,还有一种高弹性选择,足以在未来的不确定性中寻找确定:随需而变,快人一步!
    至顶网  业界供稿  2023-04-04 16:12:10  
  • 新时代金融出海,亚马逊云科技助力中国金融科技走向全球

    上海新金融研究院两个月前的一次海外调研发现,新加坡及周围国家和地区的金融科技公司,大多数都是中国企业“走出去”,即使是当地人注册的公司,其人才、技术、产品和业务模式也往往来自中国。
    至顶网  业界供稿  2024-03-26 15:58:54  
  • 科技行者公布人工智能2017年度评选: 10大AI事件、50家AI概念股、61位AI人物

    值辞旧迎新之际,科技行者公布人工智能2017年度评选,涵盖10大AI事件、50家AI公司、61位AI人物,以记录2017年在人工智能上的重大进步。
    至顶网  周雅  2018-01-09 08:47:31  
  • Enigmata:通过合成可验证的拼图让大语言模型的逻辑推理能力扩展到新高度

    Enigmata是一项突破性研究,通过合成可验证的拼图训练大语言模型的逻辑推理能力。该研究创建了包含36种任务、7大类推理能力的完整训练系统,每项任务都配备了可控难度生成器和自动验证器。基于此训练的Qwen2.5-32B-Enigmata模型在拼图推理基准上超越了o3-mini-high和o1等顶尖模型。更令人惊喜的是,当应用于更大规模模型时,这些拼图数据不仅提升了模型解决拼图的能力,还意外增强了其数学和STEM推理能力,展示了纯逻辑训练带来的广泛泛化优势。
    至顶网  科技行者  2025-05-30 07:43:48  
  • 英特尔携手SAP展开战略合作,进一步扩展云端能力

    近日,英特尔和SAP SE宣布展开战略合作,旨在于云端提供更强大、可持续的SAP(R)软件系列。该合作意在帮助客户实现更高的可扩展性、灵活性和对现有SAP软件系列的整合。
    至顶网  业界供稿  2023-05-22 10:37:44  
  • 中国人民大学让AI搜索智能体跑得更快:扩散模型也能边思考边搜索了

    中国人民大学团队开发了DLLM-Searcher,一种基于扩散大语言模型的新型AI搜索系统。该系统通过两阶段训练和创新的P-ReAct工作模式,让AI能够边思考边搜索,避免传统搜索助手等待时间过长的问题。实验显示,该系统在保持准确率的同时,推理速度提升约15%,为AI搜索代理技术带来重要突破。
    至顶网  科技行者  2026-02-11 15:57:32  
  • 小心,存储性能宣传有大坑!

    随着全闪存的普及,存储性能的宣传战争变得越来越激进,在2008年,10万IOPS已经是非常高的性能,而十年后的今天,1000万IOPS已经成为多家厂商宣传的主题。而存储响应速度的另一个指标时延已经从毫秒演进到了微秒时代。
    至顶网  华为  2018-03-20 10:06:29  
  • QVGen:低比特量化视频生成模型的突破性研究

    QVGen是一项突破性研究,致力于解决视频扩散模型在低比特量化时的性能挑战。研究团队通过理论分析发现,降低梯度范数是改善量化感知训练收敛性的关键,因此引入了辅助模块来减轻量化误差。为消除这些模块在推理阶段的开销,他们创新性地提出了秩衰减策略,通过奇异值分解和基于秩的正则化逐步移除低影响组件。实验证明,QVGen是首个在4比特设置下达到与全精度相当性能的量化方法,其3比特实现也显著优于现有技术。这一成果为高效视频生成在普通设备上的应用铺平了道路。
    至顶网  科技行者  2025-05-23 07:41:58  
  • 拼图解密:KU Leuven团队探索视觉拼图的强化学习之旅

    这项来自KU Leuven、中科大和上海Memory Tensor公司的研究探索了如何利用拼图游戏训练多模态大型语言模型的视觉推理能力。研究发现,现有模型在未经训练时表现近似随机猜测,但通过强化学习能达到近乎完美的准确率并泛化到更复杂的拼图配置。有趣的是,模型能否有效学习与是否包含明确推理过程无关,且复杂推理模式是预先存在而非突然出现的。此外,研究证明强化学习在泛化能力上优于监督微调,挑战了传统的模型训练范式。这些发现不仅揭示了AI视觉理解的机制,还为未来多模态模型研发提供了重要参考。
    至顶网  科技行者  2025-06-05 11:05:15  
  • IEEE:SambaNova的新芯片可运行比OpenAI的ChatGPT高级版大两倍以上的模型

    随着各大公司争相加入人工智能的潮流,芯片和人才供不应求。初创公司SambaNova声称,其新处理器可以帮助公司在几天内建立并运行自己的大型语言模型。
    至顶网  业界供稿  2023-10-10 09:04:56  
  • 聊天机器人用的词典可以更省电?西班牙研究团队发现AI"节能密码"

    这项研究首次系统探索了为聊天机器人定制词汇处理系统的节能潜力。通过对8个主流AI模型的测试,发现专门优化的tokenizer可减少5-10%的token数量,直接转化为相应的能耗降低。在全球AI服务规模下,这种看似微小的优化能带来显著的环保和经济效益,为AI可持续发展提供了新思路。
    至顶网  科技行者  2025-06-30 10:53:55  
  • 全球NLP最难榜单刷新:追一科技超越Facebook跃居第二

    近日,自然语言处理领域权威数据集SuperGLUE最新榜单排名更新。Google预训练模型T5保持第一,中国AI创业公司追一科技AI Lab团队超越Facebook AI,跃居榜单第二。
    至顶网  业界供稿  2020-01-16 10:05:29  
  • 解锁清晰视界:孙中山大学研究团队开创"鲁棒高斯飞溅"技术,让3D场景重建告别干扰物

    孙中山大学研究团队开发的RobustSplat技术通过两大创新解决3D高斯飞溅重建中的瞬态物体干扰问题:延迟高斯增长策略优先优化静态结构,避免早期对动态物体过度拟合;尺度级联掩码引导方法先利用低分辨率特征实现可靠初始掩码估计,再过渡到高分辨率监督获得精确预测。实验证明该方法在多个挑战性数据集上明显优于现有技术,为真实场景3D重建提供更高质量、无干扰的结果。
    至顶网  科技行者  2025-06-09 16:57:05  
  • 终极存储解决方案:把ZB级海量数据写在DNA上

    小小的双螺旋结构能够在不可思议的袖珍空间内存储惊人的信息量。
    至顶网  科技行者  2021-06-10 16:17:38  
  • 这些香港理工大学研究者如何让超长文本处理快如闪电:ZeCO技术的通信革命

    香港理工大学研究团队提出ZeCO技术,通过创新的All-Scan通信机制解决了分布式AI系统处理超长文本时的通信瓶颈问题。在256台机器上测试时,ZeCO比现有最先进方法快60%,通信时间快4倍,实现了接近理论最优的性能,为超长文本AI应用开辟了新可能。
    至顶网  科技行者  2025-07-07 10:33:59  
  • 一个字就能节省千个字:低秩克隆技术实现高效知识蒸馏,哈尔滨工业大学研究提升小型语言模型效率

    这篇论文介绍了一种名为"低秩克隆"(LRC)的新型知识蒸馏方法,能极大提升小型语言模型的训练效率。哈尔滨工业大学深圳校区和百度公司的研究团队通过训练可学习的低秩投影矩阵,同时实现了软剪枝和激活克隆,避免了传统方法中的信息损失和对齐效率低下问题。实验证明,仅用100亿-200亿文本单元训练的LRC模型性能可匹配或超越需要万亿级训练数据的现有模型,训练效率提升1000倍以上,为资源受限场景下的高性能语言模型开发提供了突破性解决方案。
    至顶网  科技行者  2025-05-23 15:25:06  
©2019 北京第二十六维信息技术有限公司(至顶网)版权所有.
京ICP备15039648号-7  京ICP证161336号  京公网安备11010802021500号