用了 0.021648秒,为您找到大发 大小 单双 有人 带么罔芷 88pkee 驻测相关内容1487 条
  • 戴尔易安信PowerEdge MX7000评测

    2018年8月,戴尔易安信宣布推出其新的高性能模块化基础架构——PowerEdge MX7000。7U机箱的MX7000是戴尔易安信公司M1000e模块化刀片机箱的一种改进。
    至顶网  业界供稿  2020-04-10 11:26:43  
  • UniWorld:北大袁路团队打造的高分辨率语义编码器,统一视觉理解与生成

    北京大学深圳研究生院袁路团队提出UniWorld模型,使用高分辨率语义编码器替代传统VAE,实现了图像理解和操作的统一。通过仅2.7M样本训练,UniWorld在图像编辑、文本生成图像和视觉理解方面均超越或接近使用2665M样本的BAGEL模型,证明了语义编码器提供的丰富视觉表征优势。研究已完全开源,包括代码、权重和数据集。
    至顶网  科技行者  2025-06-06 17:29:54  
  • QARI-OCR:阿拉伯文字识别新突破——如何让计算机轻松读懂阿拉伯文字的曲线与变化

    这项研究介绍了QARI-OCR,一种基于Qwen2-VL-2B-Instruct模型微调的阿拉伯文字识别系统。研究团队通过三阶段合成数据训练,成功解决了阿拉伯文字识别中的主要挑战:曲线连笔特性、上下文变化的字母形状和发音符号。QARI v0.2模型创下了0.061的字符错误率和0.160的单词错误率,超越了现有开源解决方案,为阿拉伯文化遗产的数字化保存提供了重要工具。
    至顶网  科技行者  2025-06-07 08:29:02  
  • MMaDA:一个跨越边界的多模态扩散语言模型,来自普林斯顿和北京大学的革命性研究

    MMaDA是由普林斯顿大学和北京大学研究团队开发的革命性多模态AI模型,它通过统一的扩散架构、混合长思考链训练和创新的UniGRPO强化学习算法,成功实现了文本推理、多模态理解和图像生成三大核心能力的高效整合。实验表明,这个8B参数的模型在多项任务上超越了专业单模态模型,展现了真正的多模态AI潜力,为未来通用人工智能发展提供了新方向。
    至顶网  科技行者  2025-05-27 13:56:38  
  • Google DeepMind揭示新型架构后门:批处理推理中的数据窃取与模型操控风险

    这项由Google DeepMind和ETH苏黎世的研究人员完成的研究揭示了一种新型AI攻击方式,针对批处理推理过程中的架构漏洞。攻击者通过植入特殊的架构后门,可在同一批次处理中窃取其他用户数据,甚至操控模型对其他用户的响应。研究团队不仅展示了攻击的可行性,还提出了一种名为"批处理隔离检查器"的防御机制,能在模型部署前检测这类漏洞。大规模分析显示,现有200多个模型已存在类似安全风险,凸显了AI服务安全保障的紧迫性。
    至顶网  科技行者  2025-05-30 09:40:36  
  • 第十八届中国音视频产业大会(AVF)暨“科技创新奖”颁奖礼在京召开

    2022年12月26日,第十八届中国音视频产业大会(AVF)暨“科技创新奖”颁奖礼在北京线上线下同步召开。
    至顶网  业界供稿  2022-12-29 10:23:36  
  • 从效率优化到模型根基:哈佛大学等多所顶尖学府联合研究Token压缩技术如何重塑生成式AI的未来

    来自哈佛大学等顶尖学府的研究团队在这篇论文中挑战了传统观念,认为Token压缩不仅仅是提高AI模型运行效率的工具,更应成为生成式AI模型设计的核心原则。研究表明,精心设计的Token压缩策略可以促进多模态深度整合、减轻AI"幻觉"问题、增强处理长序列输入的能力,并提高训练稳定性。论文详细分析了现有方法的局限性,并提出了算法创新、强化学习指导和硬件协同设计等未来研究方向。
    至顶网  科技行者  2025-06-03 07:43:12  
  • ImgEdit:北京大学与兔小贝AI联合推出的统一图像编辑数据集与基准测试

    ImgEdit是北京大学与兔小贝AI联合推出的图像编辑框架,解决了开源编辑模型落后于商业产品的问题。该框架包含120万对高质量编辑图像对,涵盖13种编辑类型和11万个多轮交互样本。通过融合视觉语言模型、检测模型和分割模型的多阶段流程,ImgEdit确保了数据的高质量性。研究团队基于此数据集训练了ImgEdit-E1模型,并提出ImgEdit-Bench评估基准,从指令遵循、编辑质量和细节保留三个维度全面评估模型性能。实验结果显示,ImgEdit-E1在多个任务上超越现有开源模型,推动了图像编辑技术的进步。
    至顶网  科技行者  2025-05-31 10:05:02  
  • 斯坦福大学Cartridges方案:让AI聊天节省99%内存的聪明方法

    斯坦福大学研究团队提出Cartridges技术,通过"自学"训练方法将长文档知识压缩成小型数据包,使AI处理长文档时内存消耗降低38.6倍,运行速度提升26.4倍,同时保持回答质量。该方法采用预处理思路,让AI提前学习文档内容并生成可复用的知识模块,在医疗、法律、教育等领域具有广阔应用前景。
    至顶网  科技行者  2025-06-12 11:22:12  
  • 图像渲染反馈强化学习:从ServiceNow研究团队到高质量矢量图形生成的突破

    ServiceNow研究团队开发了一种名为RLRF的新方法,通过强化学习显著提升了AI生成矢量图形(SVG)的质量。与传统方法不同,RLRF让AI能够"看到"自己生成的SVG代码渲染后的效果,并据此获得反馈。研究表明,这种方法不仅提高了生成图像的视觉准确性,还使代码更加简洁高效,并能够轻松泛化到从未见过的图像类型。这一突破为从图像或文本自动生成高质量矢量图形铺平了道路,对设计和开发领域具有重要意义。
    至顶网  科技行者  2025-06-01 16:08:43  
  • un?CLIP:通过反转unCLIP来提升CLIP模型的视觉细节捕捉能力

    un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
    至顶网  科技行者  2025-06-04 17:13:10  
  • 神经符号查询编译器:让搜索意图识别更精准更高效

    这项研究提出了QCompiler,一个神经符号框架,旨在提升检索增强生成系统中的搜索意图识别精确度。研究团队设计了最小且充分的BNF语法来形式化复杂查询,并开发了包含查询表达式翻译器、词法语法分析器和递归下降处理器的编译系统,将查询编译为抽象语法树。叶节点子查询的原子性确保了更精确的文档检索和回答生成,显著提升了处理复杂查询的能力。实验证明该方法在多个基准测试中表现优异,尤其在处理依赖型查询时优势明显。
    至顶网  科技行者  2025-05-22 08:20:10  
  • 佳能石井俊幸:没有R5 Mark II,专业视频用户值得入手R5C

    据市场调研机构Gfk公布的相机品牌市场份额排名中,相机品类中佳能的市场份额达到55%,是最高的。
    至顶网  业界供稿  2023-03-27 17:43:38  
  • 我们整理了19个千奇百怪的谷歌面试问题,只是最终被封存了

    2009年,身在西雅图的职业规划导师Lewis Lin汇总了客户在面试谷歌时遇到的140个问题。我们选出了其中19个最让人无法理解的“佼佼者”,并贴心的附上答案。
    至顶网  科技行者  2018-11-16 14:25:18  
  • 基于道熵统一存储平台的容灾与备份解决方案

    数据信息是企业最宝贵的资产。
    至顶网  业界供稿  2021-04-11 19:11:49  
  • CES 2025 | 代理式AI崛起:NVIDIA定义下一代“代理式 AI Blueprint”

    老黄说:下一个时代,是"代理式AI"的时代
    至顶网  毛烁  2025-01-08 14:24:54  
  • Vox-Profile:USC和约翰霍普金斯大学联合打造的全面语音特征分析基准测试

    Vox-Profile是南加州大学和约翰霍普金斯大学联合开发的语音特征全面分析基准测试系统,能从语音中识别说话者的静态特征(如年龄、性别、口音)和动态特征(如情绪、语流)。研究团队使用15个以上的公开语音数据集和多种语音基础模型进行测试,发现在多数任务中参数量更大的模型表现更佳。该系统展示了三种主要应用:分析语音识别系统性能差异、评估语音生成系统质量,以及自动生成说话风格描述。人类评估结果表明,Vox-Profile生成的描述与人工标注相当,为语音技术研究提供了新的方向和工具。
    至顶网  科技行者  2025-05-27 10:12:27  
  • 让AI自己与自己对抗:清华港大联合研究团队提出SPC框架,不需人工标注也能评估大模型推理步骤

    想象一下,你正在学习解数学题,老师不仅关心你的最终答案是否正确,更关心你的解题过程中每一步是否合理。在人工智能领域,大型语言模型(LLM)也面临类似的情况。最近几年,像o1、R1和QwQ这样的大模型在解决复杂问题时,会使用一种叫"思维链"(Chain-of-Thought,简称CoT)的方法,就像人类一步一步思考问题一样。
    至顶网  科技行者  2025-04-30 13:37:07  
  • 别只在需要时思考,这些混合推理大模型让思维更高效

    微软研究院与北京大学的团队开发出全新的大型混合推理模型(LHRMs),解决了大型推理模型的过度思考问题。这种创新模型能够像人类一样,根据问题复杂度自动决定是否需要深入思考。研究团队设计了两阶段训练方法,包括混合微调和混合群体策略优化,使模型学会智能切换思考模式。实验证明,LHRMs不仅在数学、编程等推理任务上表现出色,还避免了对简单问题的过度思考,大幅提升了响应效率和用户体验。这项研究为构建更接近人类认知模式的AI系统提供了新思路。
    至顶网  科技行者  2025-05-26 08:11:51  
  • 《IBM 2021年度报告》发布:董事长兼首席执行官Arvind Krishna致投资者的一封信

    我相信,IBM已经做好准备,成为未来数十年里推动进步的催化剂。
    至顶网  业界供稿  2022-03-10 15:10:24  
©2019 北京第二十六维信息技术有限公司(至顶网)版权所有.
京ICP备15039648号-7  京ICP证161336号  京公网安备11010802021500号