搜一下
用了 0.213707秒,为您找到
彩神
v
怎么
分析
網纸
YB233
相关内容16930 条
「未来派」的Ignite 2021:带你漫游混合现实世界
「当一个人做梦时,那只是梦;但当很多人一起做梦时,那便是现实。」而微软,正在把很多人的「梦」变成「现实」。
至顶网
高玉娴 2021-03-05 18:03:20
云计算的第三块钢板——2019公有云调研报告
我们不但需要找到现有云计算这架“飞机”上的弹洞,还应该关注到空白区域的情况,才可以让云计算这架飞机更顺利的启航。下面就让我们先对云计算这架飞机上能统计的“弹洞”进行一下
分析
。
至顶网
至顶网云能力评估小组 2019-12-11 17:03:40
微软沙特阿拉伯研究团队发布Kuwain 1.5B:用"语言注射"技术让英文AI秒懂阿拉伯语
沙特阿拉伯misraj.ai团队开发了Kuwain 1.5B,一个仅15亿参数的阿拉伯语-英语双语AI模型。他们创新性地提出"语言注射"技术,在英语模型基础上增加8个新层专门处理阿拉伯语,同时保持原有层冻结。通过扩展26000个阿拉伯语词汇和9:1的数据配比,实现了阿拉伯语性能8%提升,英语能力完全保持,训练成本降低70%。该方法可推广到其他语言,为多语言AI发展提供了高效经济的新路径。
至顶网
科技行者 2025-07-17 09:27:01
大语言模型也会"技能退化"?北大阿里巴巴联合研究揭示AI训练中的隐藏危机
北京大学与阿里巴巴联合研究发现大语言模型在强化学习训练中存在"能力边界塌陷"问题,即模型虽然测试成绩提升但整体能力范围缩小。研究团队提出RL-PLUS方法,通过多重要性采样和探索优势函数,实现内外部学习结合,在六个数学基准测试中达到最先进性能,并展现出优异的跨领域泛化能力,为AI持续学习提供了重要技术突破。
至顶网
科技行者 2025-08-11 14:30:22
清华大学团队推出突破性3D预训练框架:让计算机像人类一样"看懂"立体世界
清华大学团队提出首个统一3D点云预训练方法UniPre3D,突破传统方法只能处理特定规模数据的局限。该方法巧妙利用3D高斯喷射技术将3D数据转换为2D图像进行处理,并设计了针对不同数据规模的自适应融合策略。在多个标准数据集上的实验表明,UniPre3D在物体分类、场景分割等任务中均取得显著性能提升,为3D视觉的统一化发展提供了重要突破。
至顶网
科技行者 2025-06-18 10:45:46
哈佛大学、OpenAI等顶级机构联手:胶子粒子的隐秘力量被破解,颠覆物理学既有认知
这项由哈佛大学、OpenAI等顶级机构联合开展的研究颠覆了物理学界对胶子散射的传统认知。研究团队发现,长期被认为不存在的"单负胶子散射"实际上在特殊的克莱因空间和半共线条件下可以发生,且表现出分片常数行为。更令人瞩目的是,关键公式由GPT-5.2 Pro首先提出并由AI完成证明,展现了人工智能在前沿物理研究中的突破性作用,为理论物理学和科学发现开辟了新的研究范式。
至顶网
科技行者 2026-02-14 10:29:57
南洋理工大学团队突破:让AI学会在复杂光影中完美合成图像,无需额外训练就能处理水面倒影和阴影效果
南洋理工大学研究团队开发出SHINE方法,这是一种无需额外训练就能实现高质量图像合成的新技术。该方法通过巧妙引导现有AI模型的潜能,能够在复杂光影条件下完美合成图像,包括准确的阴影生成和水面倒影效果。研究团队还创建了ComplexCompo基准测试集,验证了SHINE在各种挑战性场景中的卓越性能,为图像编辑技术的发展开辟了新方向。
至顶网
科技行者 2025-10-16 18:01:29
ChatGPT:我围观了量子位MEET2023智能未来大会,还当了一回课代表
我们为何想跟ChatGPT交谈?何为第五范式?近二十位行业领袖共话前沿科技未来。
至顶网
至顶网商用办公频道 2022-12-15 18:29:14
静态与动态的和谐:成功大学3D-4D高斯分布融合技术突破动态场景建模效率瓶颈
这项研究提出了一种名为"混合3D-4D高斯分布"的新方法,巧妙解决了动态场景重建的效率问题。研究团队发现传统4D高斯分布技术在处理静态区域时存在大量冗余,因此开发了自动识别静态/动态区域的算法,并将静态部分转换为3D表示,动态部分保留4D表示。实验证明,该方法在保持高品质渲染的同时,将训练时间从数小时缩短至约12分钟,为虚拟现实与增强现实应用提供了更高效的动态场景重建工具。
至顶网
科技行者 2025-05-22 08:27:02
大模型预测未来的评估陷阱:评估语言模型预测能力的困境与误区
这项由ETH苏黎世、ELLIS图宾根研究所和MPI图宾根的研究者合作完成的论文,揭示了评估大型语言模型预测能力时的关键陷阱。研究发现两类主要问题:数据时间泄露导致评估结果不可信,以及基准测试表现难以外推到实际预测能力。通过系统
分析
,研究者展示了这些问题如何可能导致对语言模型预测能力的过度乐观评估,并提出了更严格的评估方法建议,以帮助科研社区更准确地判断大模型的真实预测能力。
至顶网
科技行者 2025-06-06 11:21:51
法国国家科研中心发布医学文本AI识别系统:超越专有软件的开源突破
法国国家科研中心开发的OpenMed NER是一套开源医学文本AI识别系统,能从医学文献中自动提取疾病、药物、基因等关键信息。该系统采用创新的领域自适应预训练和LoRA微调技术,在12个测试数据集中的10个创造了新纪录,特别在临床数据识别方面提升显著。整个训练过程仅需单GPU运行12小时,碳排放不到1.2千克,展现出卓越的效率和环保性。
至顶网
科技行者 2025-08-08 13:06:08
开启未来十年计算的1000倍提升 英特尔研究院开放日带来这些颠覆性技术
在近日线上举行的英特尔研究院开放日上,来自英特尔研究院的专家深入分享了影响未来十年计算的颠覆性技术,追求1000x提升。
至顶网
李祥敬 2020-12-10 13:48:10
福布斯:最简单的区块链技术投资方法
要弄清楚区块链是什么,或者其具体工作原理,其过程跟我们当初在大学时代探索网络知识非常类似:调制解调器是什么?这些马赛克是什么?我为什么要把它作为家庭作业?
至顶网
CNET科技行者 2018-02-07 15:58:37
华为云陈亮:华为云全球业务Boosting解决方案,全面护航企业出海
3 月 28 日,第一场线上直播以“塑造全球经济新格局,把脉 2022 科技新航海”为主题成功举办。
至顶网
业界供稿 2022-03-29 17:11:04
游戏画面秒变电影级真实感!希腊亚里士多德大学研究团队让虚拟世界瞬间照进现实
希腊亚里士多德大学研究团队开发了REGEN系统,通过两阶段神经网络框架实现游戏画面的实时真实化增强。该系统先用EPE方法离线生成高质量样本,再训练轻量级网络模仿效果,在《侠盗猎车手5》上实现了30帧每秒的处理速度,比传统方法快32倍且画面质量相当,为游戏产业和AI训练数据生成提供了实用解决方案。
至顶网
科技行者 2025-09-02 09:31:30
香港中文大学团队让AI成为卡通制作神器:一张图加几笔线稿就能生成完整动画片
香港中文大学等机构联合研发的ToonComposer系统实现了动画制作的重大突破,仅需一张彩色图片和几张线稿草图即可自动生成完整卡通动画。该系统通过稀疏草图注入机制和空间低秩适配器技术,将传统的中间帧绘制和上色工作整合为统一的"后关键帧制作"阶段,大幅提升制作效率。实验显示其在视觉质量和动作连贯性等指标上显著超越现有方法,为动画产业的智能化发展开辟新路径。
至顶网
科技行者 2025-08-19 10:46:28
Meta团队让AI学会"记住"用户偏好:解决人工智能"千人一面"的终极方案
Meta团队开发的PAHF系统让AI能像朋友一样记住和适应用户偏好。该系统采用双重学习机制:主动询问解决模糊指令,错误修正跟上偏好变化。实验显示在家用机器人和购物场景中,PAHF准确率达70%,远超传统系统的32%。这项研究为个性化AI发展指明方向,预示未来AI助手将更贴心智能。
至顶网
科技行者 2026-02-25 12:31:48
高通四项发布打响MWC前战:骁龙X24可实现2Gbps速率
高通为中国的春节献上了一份礼物:可以实现2Gbps传输速率的骁龙X24调制解调器、预集成多个终端管理器及工具/接口的LTE IoT SDK、无线边缘服务以及5G新空口R16演示。
至顶网
高飞 2018-02-15 05:49:19
斯坦福大学新发现:AI竟然能像人类一样"边玩边学",彻底改变机器学习方式
斯坦福大学人工智能实验室开发出革命性的"好奇心驱动"AI学习系统,让机器能够像人类一样通过主动探索来学习复杂技能。该技术通过内在动机机制,使AI学习效率提升十倍,并能够发现创新解决方案,在机器人导航、医疗诊断、自动驾驶等领域展现巨大应用潜力,为实现更智能、更自然的人机交互奠定基础。
至顶网
科技行者 2025-06-12 08:08:50
伯克利顶级学者斯图尔特·罗素:人类对自主权的珍视成为与人工智能和谐共存的关键矛盾点
深度学习无疑是近十年人工智能发展的核心驱动力。在诸多应用场景中,深度学习大放异彩。机器翻译领域取得了重大突破,能够精准地将法语文档译为英文,极大地便利了跨语言交流;AlphaFold成功破解了蛋白质结构预测难题,为结构生物学带来了革命性的进展,使生物学家能够大规模预测蛋白质结构,加速了相关研究进程;
至顶网
聚大模型前言 2025-01-07 14:04:28
<
上一页
809
810
811
812
813
814
815
816
817
818
下一页
>
©2019 北京第二十六维信息技术有限公司(至顶网)版权所有.
京ICP备15039648号-7
京ICP证161336号 京公网安备11010802021500号