用了 0.055586秒,为您找到大小 单双 技巧 集锦 罔芷 88pkee 驻测相关内容3162 条
  • 对角线批处理技术:突破循环记忆Transformer模型在长上下文处理中的并行瓶颈

    这篇研究介绍了"对角线批处理"技术,该技术解决了循环记忆Transformer模型在处理长文本时的并行计算瓶颈。通过重新编排计算顺序,研究团队实现了在不破坏依赖关系的情况下进行并行计算,使LLaMA-1B模型处理长文本的速度提升3.3倍,同时内存使用减少167.1倍。这种纯运行时优化不需要重新训练模型,为实际应用中的长文本处理提供了高效解决方案。
    至顶网  科技行者  2025-06-09 16:57:21  
  • 初创企业新机遇!华为云“微光训练营”赋能初创企业成长

    3月24日-26日,华为云“微光训练营”首场活动——大湾区专场即将启动。本次活动以“聚微光,创未来”为主题,通过打造产业扶持和创业扶持的双料平台,拉动政府、企业、风投、产业资源帮助初创企业成长,共同带动产业链数字化转型。
    至顶网  业界供稿  2021-03-19 17:09:03  
  • 沃尔沃将区块链技术引入供应链,实现原材料来源跟踪

    沃尔沃汽车近日宣布,将利用甲骨文提供的区块链平台追踪钴材料的来源。
    至顶网  科技行者  2019-11-26 18:45:46  
  • 展心展力 metaapp:基于 DeepRec 的稀疏模型训练实践

    推荐场景大模型在国内的使用很早,早在 10 年前甚至更早,百度已经用上了自研的大规模分布式的 parameter server 系统结合上游自研的 worker 来实现 TB 级别的万亿参数的稀疏模型。
    至顶网  业界供稿  2023-04-14 13:47:14  
  • 为什么事件驱动架构这么火?亚马逊云科技给你答案

    现在每个企业机构无一例外地都在利用软件优化自己的业务,因此也造就了软件行业非常多的工作机会,从而也吸引了越来越多的小伙伴进入到软件以及相关的行业中。
    至顶网  至顶网云计算频道  2022-09-26 13:35:12  
  • 仅需220小时GPU训练,加州大学开源2B参数多模态大模型创下效率纪录

    这项研究展示了如何用极少的计算资源训练出高性能的多模态大语言模型。加州大学团队仅用220小时GPU就训练出了2B参数的Open-Qwen2VL,性能超越了使用277倍训练数据的同类模型。关键创新包括高质量数据过滤、多模态序列打包和动态图像分辨率策略。更重要的是,该项目重新定义了AI模型的"完全开源"标准,公开了训练代码、数据过滤技术和全部训练数据,为学术界提供了宝贵的研究资源。
    至顶网  科技行者  2025-07-14 09:47:20  
  • Snowflake 声称突破性技术可将 AI 推理时间削减超过 50%

    雪花公司宣布将一项名为 SwiftKV 的优化技术集成到其托管的大型语言模型中。这项技术通过重复利用早期层的隐藏状态信息,避免重复计算后续层的键值缓存,从而显著提高推理效率。据称,该技术可将 LLM 推理吞吐量提高 50%,并将某些开源模型的推理成本降低高达 75%。这一突破有望大幅提升 AI 应用的性能和效率。
    至顶网  SiliconANGLE  2025-01-20 16:39:26  
  • 揭秘人类视觉系统的奥秘:MIT与谷歌大脑团队发现视觉系统如何识别物体的核心机制

    MIT与谷歌大脑团队的研究揭示了人类视觉系统识别物体的核心机制:大脑不仅被动提取物体特征,还主动预测物体在不同条件下的变化。通过脑电图与人工智能分析,研究发现视觉刺激后约100毫秒,大脑形成物体身份表征,随后200-300毫秒内开始预测物体在不同位置、大小或角度下的表现。这一发现不仅深化了对视觉系统的理解,也为计算机视觉提供了新思路,表明融入预测变换机制可能是提升人工视觉系统性能的关键。
    至顶网  科技行者  2025-07-29 09:33:52  
  • 从传输模式到存储集成,与专家一起走进Veeam Backup & Replication最佳实践

    Veeam Backup & Replication 可为所有工作负载提供快速、可靠的备份,可帮助您缩短备份窗口并降低备份和存储成本。
    至顶网  任新勃  2019-09-19 10:41:44  
  • 主动学习超参数全景调查:来自德累斯顿工业大学的大规模实验网格分析

    这项研究由德累斯顿工业大学等机构的研究团队完成,旨在解决主动学习未被广泛应用的问题。研究者构建了包含460万种超参数组合的实验网格,系统分析了各参数对主动学习性能的影响。研究发现,不同策略实现间存在显著差异,基于边缘的不确定性策略整体表现最佳,随机选择约4000个超参数组合即可获得可靠结果。这些发现为设计可重现、可信赖的主动学习实验提供了明确指导,有助于降低入门门槛,促进技术在实际应用中的普及。
    至顶网  科技行者  2025-06-08 09:33:26  
  • 语言模型加持:阿里巴巴发布Qwen3系列文本嵌入和重排模型,在多语言和代码检索任务中超越行业巨头

    阿里巴巴和同济实验室联合推出的Qwen3 Embedding系列模型在文本嵌入和重排技术上取得突破性进展。这套模型基于Qwen3大语言模型构建,采用多阶段训练策略,结合大规模合成数据和高质量监督数据,实现了在MTEB多语言、英文、中文和代码等多个基准测试中超越现有最佳开源和商业模型的性能。该系列提供0.6B至8B参数的多种规模选择,以Apache 2.0许可开源,为搜索引擎、推荐系统和检索增强生成应用提供强大支持。
    至顶网  科技行者  2025-06-09 15:32:17  
  • 杰和科技:AI在智慧零售领域的创新应用

    2020年3月18日晚9点,杰和科技战略市场部总监、应用系统产品部总监刘汉先生通过CSDN直播平台分享AI在智慧零售领域的创新应用,详解智慧商显管理平台通过AI人脸识别实现精准广告投放的应用案例。
    至顶网  业界供稿  2020-03-19 17:03:43  
  • 沙特科技大学揭秘:AI推理能力竟然可以像U盘一样"拷贝粘贴"

    沙特阿卜杜拉国王科技大学研究团队首次发现AI推理能力可以像文件一样被提取和转移。通过简单的数学运算从强化学习模型中提取"推理向量",然后添加到其他模型上,实现推理能力的快速传递。实验显示模型在数学、代码生成等任务上性能提升4-12%,且在对抗性测试中保持稳定。这项技术有望让AI推理能力的获取从昂贵训练变为低成本复用,加速AI技术普及。
    至顶网  科技行者  2025-09-24 10:27:20  
  • 微软的DNA存储技术突破可能为艾字节硬盘铺平道路

    由于用于检索数据的新技术出现,将大量数据存储在DNA上的前景现在更加接近于现实了。
    至顶网  ZDNet  2018-02-22 15:20:41  
  • 超大规模 AI 模型训练使用对象存储

    超大型 AI 语言模型训练正转向使用对象存储而非文件存储。这种转变源于 AI 模型训练的特殊需求和对象存储的优势。对象存储在数据摄取、准备、模型训练和部署等阶段都表现出独特优势,能更好地满足大规模并行计算和海量数据处理的需求,同时具有更高的成本效益和可扩展性。
    至顶网  BLOCKS & FILES  2025-02-05 09:49:02  
  • 存储卡太贵?或许你的相机应该使用固态硬盘

    随着视频拍摄规格的不断升级,如今4K的拍摄已经成为主流。即使是几分钟的文件,也动辄几个G。虽然正常情况大部分的相机使用的都是内存卡,但是高速的内存卡价格往往比较昂贵,虽然方便,但是成本也比较高。
    至顶网  业界供稿  2021-11-16 10:52:11  
  • HPE和AMD联手为美国打造全球最快超级计算机El Capitan

    这个名为“El Capitan”的超级计算机是由Cray为美国能源部设计的,HPE在5月以13亿美元的价格收购了Cray。HPE和AMD今天与合作伙伴劳伦斯·利弗莫尔国家实验室一起宣布了该计划。
    至顶网  siliconANGLE  2020-03-05 13:53:55  
  • V10 — 更出色的备份!更快速、更强大、更智能!

    V10 融合了超过 150 项新功能和改进,帮助您备份和恢复任何位置的关键云、虚拟或物理工作负载。
    至顶网  至顶网存储频道  2020-04-03 14:12:27  
  • IBM发布全新的入门级全闪存存储平台IBM FlashSystem 5300

    近日,IBM发布了全新的IBM FlashSystem 5300,这是一款功能强大的入门级存储解决方案,仅使用一个机架单元就能为各种规模的企业提供高性价比和高可用性的企业级数据服务。
    至顶网  业界供稿  2024-04-30 09:32:04  
  • 新加坡国立大学突破:让AI像看电影一样记住长视频的每个细节

    新加坡国立大学ShowLab团队提出FAR模型,通过"长短期上下文建模"和多级缓存系统,解决了AI视频生成中的长期记忆问题。该模型能生成长达300帧的连贯视频,在多个基准测试中达到最优性能,为AI世界模拟器的发展奠定重要基础。
    至顶网  科技行者  2025-08-01 14:43:48  
©2019 北京第二十六维信息技术有限公司(至顶网)版权所有.
京ICP备15039648号-7  京ICP证161336号  京公网安备11010802021500号