用了 0.154003秒,为您找到大小 单双 技巧 集锦 罔芷 88pkee 驻测相关内容2142 条
  • 专注闪存的 Regatta OLxP 数据库致力于为 AI 代理提供更快的数据访问

    以色列初创公司 Regatta 正在开发一款可扩展的 OLxP 关系型数据库,结合了事务处理和分析功能。该数据库兼容 Postgres,专为 SSD 存储优化设计。它采用无共享集群架构,支持分布式 SQL 查询,可在不同节点间执行复杂操作。Regatta 的独特并发控制协议和针对闪存优化的数据布局,旨在为 AI 代理提供更高效的数据访问和处理能力。
    至顶网  BLOCKS & FILES  2025-02-06 09:44:47  
  • 美光推出2600 QLC固态硬盘,实现TLC级写入性能

    美光发布新款2600客户端QLC固态硬盘,采用自适应写入技术动态优化缓存,使QLC闪存达到TLC级写入性能。该技术通过顶层SLC缓存处理新写入数据,二级TLC缓存应对SLC满载情况,空闲时将数据迁移至QLC模式。硬盘无DRAM设计,采用Phison四通道控制器和美光276层3D NAND,提供512GB至2TB容量选择,相比竞品QLC和TLC固态硬盘,顺序写入速度提升63%,随机写入速度提升49%。
    至顶网  BLOCKS & FILES  2025-06-30 10:02:19  
  • 服务器机架与机箱的区别及其重要性

    数据中心服务器通常部署在机架或机箱中,但两者并非同一概念。服务器机架是容纳多台服务器的金属外壳,通常垂直堆叠;而机箱是容纳服务器内部组件的外壳,是机架内的较小模块。机架服务器体积较大,通常占用单个机箱;刀片服务器更小,可在一个机箱中部署多台。理解两者区别对数据中心设计至关重要,影响服务器类型选择、冷却效率和硬件部署方案。
    至顶网  DataCenterKnowledge  2025-07-22 08:21:55  
  • 戴尔全闪存存储 不断升级 创新 实现进一步突破

    今年9月,戴尔科技集团宣布了为非结构化数据而生的PowerScale率先引入QLC SSD。这一举措不仅为用户进一步降低全闪存储的整体TCO成本打开了空间,也是QLC进入企业级市场的重要信号。
    至顶网  戴尔  2022-12-13 13:47:37  
  • 铠侠领先推出面向企业与数据中心的CD8P系列PCIe 5.0 SSD

    全球存储器解决方案领导者的铠侠株式会社(Kioxia Corporation)今天宣布,铠侠数据中心级固态硬盘(SSD)产品线新增铠侠CD8P系列。
    至顶网  业界供稿  2023-08-09 09:17:25  
  • 容联云发布容犀Copilot,打造销售和客服的实时AI领航员

    12月19日,容联云“未来生成式——大模型应用升级新品发布会”在北京举办。发布会上,容联云正式发布基于自研赤兔大模型的全新产品品牌【容犀智能】及生成式应用【容犀Copilot】。
    至顶网  至顶网软件与服务频道  2023-12-20 11:32:42  
  • 希捷SSD产品线“全明星阵营”亮相

    目前,希捷在SSD产品线上的布局已经相对完整,既有消费级也有企业级,既有内置也有外置,既有SATA接口也有PCIe接口。
    至顶网  邹大斌  2019-09-18 10:55:57  
  • 浪潮智能RAID技术为数据存储保驾护航

    如今,随着数据存储量的爆发式增长,单块硬盘容量越来越大,传统RAID的缺陷也随之暴露出来,各大存储厂商纷纷推出应对之策。
    至顶网  业界供稿  2018-05-23 09:46:29  
  • 大厂裁员,最恐慌的不是大厂人

    近期,在大厂裁员众多消息中,传得最沸沸扬扬的大概就是阿里大裁员,阿里官方还亲自出来辟谣:假的!我们还要招聘15000人。
    至顶网  尼酱  2023-05-30 11:15:28  
  • TAO系列10-物件检测的模型训练与优化-2

    TAO工具提供提供QAT(Quantize Aware Training)量化感知的训练模式,不过目前QAT效果还在验证当中,倒也不急于使用,因此我们还是以标准模式来训练。
    至顶网  业界供稿  2022-05-10 14:53:02  
  • 阿里提出LLaVA-MoD架构!利用MOE技术让小模型也能大显身手!

    多模态大型语言模型(MLLM)通过在大型语言模型(LLM)中集成视觉编码器,在多模态任务中取得了有希望的结果。然而,大型模型的大小和广泛的训练数据带来了显著的计算挑战。例如,LLaVA-NeXT的最大版本使用了Qwen-1.5-110B,并且使用128个H800 GPU训练了18小时。
    至顶网  数源AI  2024-10-30 11:04:40  
  • 有意见 | 高性能RISC-V服务器芯片面世

    RISC-V服务器芯片设计厂商Ventana Micro Systems发布了其第二代服务器CPU——Veyron V2
    至顶网  至顶网有意见频道  2023-11-10 16:36:53  
  • 三年多啦,那么多IT人还没有搞定这个问题

    对IT维护人员来说,如果运行的服务器已经安装了操作系统,且分区大小已经确定,要想改变RAID保护级别或扩充卷大小,同时又不破坏当前阵列和阵列上数据,可能是件相当麻烦的事。
    至顶网  戴尔  2019-08-08 09:59:21  
  • 不是所有模型都适合专家卸载:揭秘混合专家模型的局部路由一致性

    这项研究分析了混合专家模型(MoE)的"局部路由一致性"特性,即连续词元激活相似专家的程度,这对内存受限设备上的模型部署至关重要。研究者提出了两种测量指标:段路由最佳性能(SRP)和段缓存最佳命中率(SCH),分析了20个不同MoE模型。结果表明,在每层都使用MoE且不含共享专家的模型局部路由一致性最高,领域专业化的专家比词汇专业化的专家对一致性贡献更大。研究还发现,缓存大小为激活专家数量2倍时能取得最佳平衡,为MoE模型设计和部署提供了重要指导。
    至顶网  科技行者  2025-05-29 08:20:15  
  • Qdrant CEO解析AI为何需要专用向量搜索技术

    开源向量数据库Qdrant拥有超过1000万次安装量。创始人兼CEO Andre Zayarni指出,向量搜索在AI推理阶段发挥核心作用,通过存储嵌入向量实现快速检索,支持RAG等技术。通用数据库缺乏高维相似性搜索所需的索引结构和低延迟执行路径,而专用向量数据库提供一阶段过滤、混合搜索等关键功能,更适合处理大规模语义检索任务。
    至顶网  BLOCKS & FILES  2025-06-17 10:08:51  
  • 有意见 | 现在的量子计算到《流浪地球2》的MOSS还差多远

    最近关于《流浪地球2》里MOSS的脑洞越来越多。
    至顶网  至顶网有意见频道  2023-02-03 17:19:22  
  • WEKA推出NeuralMesh架构支持超大规模AI工作负载

    WEKA发布NeuralMesh架构,通过并行文件系统软件变革加速大规模AI应用。该架构采用微服务构建动态连接的节点网格,解决传统存储在分布式AI训练和推理环境中的规模、延迟和并发需求。NeuralMesh可提供微秒级延迟保证,随规模扩展而增强弹性,硬件故障时可在分钟内重建。系统支持从TB到EB的容量扩展,在genomics研究机构实现从2PB到12PB的无停机扩容。
    至顶网  BLOCKS & FILES  2025-06-19 09:56:27  
  • 家族里的扛把子,到外面一样是尖子生!

    随着业务发展、数据量增加,各种规模的企业都在与“设备老化”和“存储能力缺乏”作斗争,根据2018年企业存储论坛(Enterprise Storage Forum)的一项调查,IT和企业领导人已经将这些担忧列为他们所面临的两大存储基础设施挑战。
    至顶网  戴尔  2019-08-15 10:37:46  
  • Hugging Face:企业在不牺牲性能下降低AI成本的5种方法

    企业普遍认为AI模型需要大量算力,但Hugging Face专家认为应该更智能地使用AI。五个关键策略包括:为特定任务选择合适规模的模型而非通用大模型;将效率设为默认选项,避免不必要的高成本计算模式;通过批处理和精度调整优化硬件利用;推广能耗透明度评级系统;重新思考"更多算力更好"的观念,专注于智能架构和优质数据而非简单扩大GPU集群规模。
    至顶网  VentureBeat  2025-08-19 17:03:04  
  • 重磅:微软推出比肩固态盘的Azure Ultra Disk云存储服务

    微软今天宣布在三个云区域推出新的Azure Ultra Disk固态硬盘存储服务。
    至顶网  siliconANGLE  2019-08-16 10:38:07  
©2019 北京第二十六维信息技术有限公司(至顶网)版权所有.
京ICP备15039648号-7  京ICP证161336号  京公网安备11010802021500号