搜一下
用了 0.083275秒,为您找到
AG
手机
客户端
登录
網纸
YB233
相关内容6904 条
钉钉十年,无招终于等来了AI这把“锤子”
“老朋友们,在这里能见到,非常高兴,好久不见。”陈航一袭黑衣,开场白简单亲切,距离他回归钉钉,仅过去了四个月。这短短的120天,他和他的团队几乎是在以一种“战时状态”做高强度的筹备,只为在钉钉十周岁生日这天,交出或许能定义下一个十年的答卷。
至顶网
周雅 2025-08-25 23:54:42
阿里达摩院VACE:一个模型搞定所有视频创作,从文字到视频再到精细编辑全包了
阿里达摩院推出VACE系统,这是首个能够统一处理文字转视频、视频编辑、遮罩编辑等12种视频任务的AI模型。通过创新的视频条件单元(VCU)和上下文适配器架构,VACE不仅能单独完成各类视频生成编辑任务,还支持任务组合创造出传统方法无法实现的效果,为视频创作提供了革命性的一站式解决方案。
至顶网
科技行者 2025-08-01 10:14:02
机器人终于会"想"再"动"了——艾伦人工智能研究院的MolmoAct模型让机器人拥有空间推理能力
艾伦人工智能研究院开发的MolmoAct是首个开源的机器人空间推理模型,通过"看懂-规划-执行"三步思考法让机器人具备类人的空间理解能力。它不仅在多项基准测试中表现优异,还支持直观的视觉轨迹调教,用户可直接在屏幕上画线指导机器人行为。研究团队完全开源了模型、代码和数据集,为全球机器人研究提供强大基础平台。
至顶网
科技行者 2025-08-14 10:29:17
变形金刚也能偷师学艺?斯坦福研究员揭秘AI模型如何无需"改造"就能获得新技能
斯坦福研究员发现,AI模型无需复杂"改造"就能获得新技能,只需观察少量例子即可模仿专业训练效果。这种"情境学习"方法大幅降低了AI应用门槛,文本生成需数千例子,分类任务仅需数百例子,有望让普通用户轻松定制专属AI助手,推动AI技术民主化进程。
至顶网
科技行者 2025-06-17 13:13:19
伊利诺伊大学新突破:让AI像搭积木一样改变照片中的物体位置
伊利诺伊大学研究团队开发出"生成式积木世界"系统,通过将照片分解成3D几何积木,让用户能够直观地编辑图像中物体的位置、大小和角度,同时保持原有质感。该技术突破了传统图像编辑在3D空间操作上的限制,为专业设计和普通用户提供了全新的创作工具。
至顶网
科技行者 2025-07-01 14:15:47
吴声年度演讲全文:新物种时代的场景战略
2021年8月15日,一年一度的“新物种爆炸·吴声商业方法发布2021”如约而至,以下为《吴声造物》梳理的演讲全文。
至顶网
业界供稿 2021-08-16 17:37:20
复旦大学团队让机器人学会"速成版"人体姿态计算:从反复试错到一次搞定的神奇突破
复旦大学与上海人工智能实验室联合开发的Learnable SMPLify技术,将传统人体姿态计算的耗时从12秒缩短至0.06秒,实现200倍速度提升。该方法通过神经网络学习姿态转换规律,摒弃传统反复优化策略,采用时间序列数据构造、人体中心坐标标准化和残差学习等创新设计,在保持高精度的同时大幅提升计算效率,为VR、游戏制作、体育训练等领域提供实用解决方案。
至顶网
科技行者 2025-08-29 14:08:25
微软团队让AI聊天更快更省钱:SIGMA模型把计算机系统管理变成会说话的智能助手
微软团队开发的SIGMA是首个专为系统域任务设计的高效大语言模型,通过创新的DiffQKV注意力机制在保持性能的同时大幅提升推理效率,在长文本场景下速度提升达33.36%。该模型在系统管理任务上的表现全面超越GPT-4,为AI在专业技术领域的应用开辟了新路径。
至顶网
科技行者 2025-09-17 10:02:32
上海AI实验室的新突破:让你用键盘控制的虚拟世界探险家YUME
上海AI实验库推出YUME系统,用户只需输入一张图片就能创建可键盘控制的虚拟世界。该系统采用创新的运动量化技术,将复杂的三维控制简化为WASD键操作,并通过智能记忆机制实现无限长度的世界探索。系统具备强大的跨风格适应能力,不仅能处理真实场景,还能重现动漫、游戏等各种艺术风格的虚拟世界,为虚拟现实和交互娱乐领域提供了全新的技术路径。
至顶网
科技行者 2025-07-28 15:33:14
BlenderFusion:谷歌DeepMind让普通图片秒变3D魔法工场
这项由谷歌DeepMind研究团队开发的BlenderFusion技术,实现了将普通2D照片转换为可精确编辑的3D场景的突破。该系统通过三步流程:物体分层提取、Blender 3D编辑、生成式合成,解决了传统图像编辑中控制精度与真实感之间的矛盾,支持多物体操作、材质修改、场景重组等复杂编辑任务。
至顶网
科技行者 2025-07-01 15:52:58
腾讯混元团队突破视频生成技术:让多个角色在视频中自然互动的AI魔法
这项研究由上海交通大学、腾讯混元和浙江大学合作完成,提出了PolyVivid多主体视频定制框架。该技术通过视觉大语言模型融合、3D位置编码交互增强和注意力继承身份注入三大创新模块,成功解决了AI视频生成中的角色身份一致性和多主体互动难题,在各项评估指标上显著超越现有技术,为视频创作领域带来突破性进展。
至顶网
科技行者 2025-06-13 09:44:31
突破性空间推理技术:伊利诺伊大学研究团队开发出让AI"看懂"空间关系的新方法
这项由伊利诺伊大学香槟分校研究团队开发的突破性AI技术,首次让机器具备了类似人类的空间推理能力。通过创新的细粒度偏好优化训练方法,SpatialReasoner-R1不仅能准确判断图片中的空间关系,还能提供完整的逻辑推理过程。在空间质量和数量任务上分别实现4.1%和9.0%的性能提升,为自动驾驶、机器人导航、增强现实等领域带来重要应用前景。
至顶网
科技行者 2025-07-01 14:16:33
蒙特利尔大学团队用AI"强化学习"让图像编辑变得像聊天一样简单
蒙特利尔大学研究团队开发出EARL图像编辑系统,通过强化学习训练让AI能够理解自然语言指令并完成复杂图像编辑。该系统采用"教练式"训练方法,AI在智能评价系统指导下持续改进编辑能力,最终在综合测试中以4.80分超越了包括商业系统Omnigen在内的所有对比方法。EARL不仅能处理简单的颜色修改,还能完成空间关系调整、数量变化等复杂任务,代表了人机交互方式的重要变革,有望让图像编辑变得像聊天一样简单。
至顶网
科技行者 2025-08-11 09:57:30
哈工大团队让机器人学会"聪明偷懒":像人脑一样高效处理复杂指令
哈工大研究团队开发的CogVLA系统通过模仿人脑认知机制,让机器人学会"智能筛选"信息,根据任务指令只关注重要内容。该系统采用三阶段渐进式处理架构,在LIBERO基准测试中达到97.4%成功率,同时训练成本降低2.5倍,推理速度提升2.8倍,为机器人技术的实用化和普及化奠定了重要基础。
至顶网
科技行者 2025-09-04 14:31:44
疫情后的第三年:时代更迭下的技术管理与团队协作
TVP自成立之初,便希望能够“用科技影响世界”,让技术普惠大家,践行科技向善的初心与本心。正如TVP大咖们所言,也许远程办公的团队管理还缺乏经验分享、著作产出,但谁知道在这样的思想碰撞以后,会不会启发更多的有心人呢?
至顶网
业界供稿 2022-04-13 17:35:51
大型语言模型能力测试大揭秘:中科院团队发布283个评测基准全景分析
中科院深圳先进技术研究院团队首次全面梳理了大型语言模型评测领域,分析了283个代表性基准,将其归纳为通用能力、领域专业和特定目标三大类别。研究揭示了现有评测体系面临的数据污染、文化偏见和静态评测等关键挑战,为构建更科学公正的AI评测框架提供了重要指导,推动人工智能技术向更安全可靠的方向发展。
至顶网
科技行者 2025-10-11 09:53:47
Skywork AI团队揭秘:如何让AI助手真正理解人类喜好?史上最大规模偏好数据集诞生记
Skywork AI团队通过创新的人机协作数据处理方法,构建了史上最大规模的高质量偏好数据集SynPref-40M,训练出Skywork-Reward-V2系列模型。该系列在七项主要测试中全面超越现有最佳模型,证明了数据质量胜过算法复杂度的重要原理,为AI更好理解人类偏好开辟了新道路。
至顶网
科技行者 2025-07-04 17:22:18
C2M,一场价值链的博弈,一场数字化的变革
C2M在逐渐全球化的世界中给了我们一个再次创造的机会,因为它带来的既是一场价值链的重新布局,也是一场产业数字化的变革。
至顶网
王聪彬 2021-02-18 09:38:20
中科院团队突破视频光影魔法:让任何视频在不同时间地点"重新拍摄"
中科院自动化所研究团队开发出TC-Light视频重新打光技术,能够在保持原有内容完全不变的情况下改变视频光照环境。该技术采用独创的"独特视频张量"和两阶段优化策略,可将阴天场景转换为阳光效果,或为普通视频添加科幻光影,同时保持完美的时间连贯性。技术在58个长视频测试中表现优异,为影视制作、AI训练等领域提供了高效解决方案。
至顶网
科技行者 2025-06-27 10:26:53
万字梳理中国AIGC产业峰会激辩,大模型应用最全行业参考在此
在中国AIGC产业峰会的现场,20位大咖展开激辩。从软件应用、智能终端乃至具身智能等,AIGC正在全面席卷,「你好,新应用!」成为本届AIGC峰会主题。
至顶网
业界供稿 2024-04-19 16:56:56
<
上一页
340
341
342
343
344
345
346
下一页
>
©2019 北京第二十六维信息技术有限公司(至顶网)版权所有.
京ICP备15039648号-7
京ICP证161336号 京公网安备11010802021500号