作者 | 冬梅
刚刚在拉斯维加斯的 CES 2026 上,英伟达的 CEO 黄仁勋给我们带来了一个不同寻常的演讲,他没有提到芯片,而是宣告了人工智能即将从理解语言跨越到改变物理世界的重大时刻。

英伟达详细介绍了其在“物理 AI(Physical AI)”方面的新技术计划。从自动驾驶到通用机器人,再到云端训练和现实世界的应用,英伟达正在努力通过一整套的计算与软件体系,引领 AI 迈向“理解、推理并行动”的新阶段。
1 2025 年开源模型取得突破,但依然落后先进模型约 6 个月
演讲一开始,黄仁勋就指出,这次的转型关键在于“双重平台迁移”。首先,计算的中心已从传统的 CPU 转向以 GPU 为核心的加速计算;其次,应用开发的基础也在从固定代码规则转向以人工智能为核心。“现在你不单单是在写软件,而是在训练它;应用程序也不再是静态的,而是能够理解上下文、根据不同情况动态生成内容的新型实体。”他这样描述。这两种深刻的变化同时发生,交织在一起,彻底改变了计算的本质。

这场演讲恰逢新年,黄仁勋特别提到了 2025 年开源模型所取得的重大进展。他表示,去年真是个不可思议的年份,感觉一切都在同时发生,接下来要讨论的就是 Scaling Law 的进展。
2015 年,语言模型 BERT 的出现为行业带来了颠覆性的变化。2017 年,Transformer 架构问世,但直到五年后,ChatGPT 才引领了爆发潮,唤醒了世界对人工智能潜力的重新认识。而在接下来的年中,更加重要的事情发生了:首个具备推理能力的模型诞生,它创造了“Test Time Scaling”这个革命性概念——也就是实时思考的能力。每个阶段的人工智能都需要强大的算力支持,计算定律也在不断扩展,而大语言模型则不断进化。
### 人工智能的新纪元:从自主思考到物理 AI
在2024年,我们见证了一项了不起的进展:自主思考的智能体系统开始崭露头角,到了2025年,它们已经无处不在。这些智能体不仅能推理、检索信息,还能进行研究、使用工具、规划未来,甚至模拟各种结果,开始着手解决一些重大问题。黄仁勋特别提到Cursor模型,这一技术彻底改变了英伟达的软件开发方式。可以说,智能体系统的真正飞跃就要开始了。
当然,人工智能的类型可不止这一种。大家可能知道,大语言模型并不是唯一的信息处理方式。其实在宇宙中,只要有信息和结构的地方,就能训练出某种语言模型来理解这些信息并将其转化为AI。其中,物理AI是个大家都应该关注的领域:它不仅包括与物理世界互动的AI,还涵盖了理解物理定律的AI模型。
去年,开源模型的突破也是一个重要的里程碑。当开源创新让全球的企业和行业都同时被激活时,人工智能才算真正进入了我们的生活。全球首个开源推理系统模型的问世,无疑是给这个运动注入了强大动力。黄仁勋指出:“如今,各类开源模型系统遍布全球,虽然距离最前沿的尖端模型还有六个月的差距,但每半年就会有更聪明的新模型问世。”这也导致了模型下载量的爆炸式增长,各种创业公司、大型企业、研究人员、学生,甚至各国都想参与这场AI革命。可想而知,如果不赶上这个数字智能的潮流,谁都可能被甩在后面。开源模型正在重新定义整个行业。
英伟达早在几年前就预见到了这一趋势,因此开始构建自主运营的AI超级计算机DGX Cloud。
不过,关于老黄的这一举动,外界也有一些疑问,大家可能在想:他是不是想进军云业务呢?对此,他的回答是否定的,并补充道:
“我们建设这些超级计算机本是为了内部使用,现在已经有价值数十亿美元的超级计算机在运行,目的是开发我们的开源模型。我对我们当前的工作感到非常自豪——我们在蛋白质数字生物学领域的努力能够让模型合成生成蛋白质;OpenFold3可以解析蛋白质结构;Evolve2能理解并生成多蛋白质体系;Earth2则是理解物理定律的AI;ForecastNet和CORDiff彻底改变了天气预报的方式;而NemoTriumph作为首个混合Transformer SSM模型,能够快速进行长时间思考并给出智能回答;Cosmos是理解世界运行机制的前沿开放基础模型;GROOT则是向全世界开放的人形机器人系统模型。”

2 发布完全开源的Alpusin仿真框架
在演讲之前,英伟达的Omniverse与仿真技术副总裁Rev Lebaredian曾向媒体表示:“构建物理AI需要三台计算机。”英伟达将其定义为从边缘到云的全栈式专用加速系统,包括操作系统、库和应用。英伟达的独特之处在于它同时构建了这三者:使用DGX训练AI模型,通过Omniverse和RTX上的Cosmos进行仿真、测试与验证,最后通过AGX将模型部署到现实世界。物理AI的浪潮才刚刚开始,单单这两类计算机就为英伟达的物理AI部门带来了近万亿美元的机会。
在黄仁勋的主题演讲中,他再次强调了Rev Lebaredian的观点。英伟达将物理AI模型分为三大系列:用于世界生成与理解的Cosmos World基础模型、通用机器人模型GROOT,以及在本次CES发布的全新系列——具备思考能力的自动驾驶模型AlpaMayo。英伟达还开源了模型、数据库、训练脚本和设计蓝图,支持生态系统开发者的使用。
英伟达推出具备思考能力的自动驾驶模型,开源资源助力开发者
你知道吗?Cosmos在理解物理世界这方面已经与GPT-40和Gemini等顶尖模型不相上下了。在物理推理和AI基准测试中,Cosmos的表现甚至更胜一筹,下载量也突破了400万次。这一切正在推动各行各业的应用,比如日立集团就用基于Cosmos Reason的视觉AI来优化实时基础设施监测;Lem Surgical则借助Cosmos Transfer来训练机器人,帮助进行复杂的外科手术;Salesforce利用Cosmos Reason分析机器人采集的视频,提升工作场所的安全性;Telet的视觉智能平台用Cosmos Reason加速工业自动化;而Uber则通过这个模型来分析自动驾驶汽车在高速公路上遇到行人横穿等情况时的行为模式。
接下来,英伟达还推出了一个新玩意儿,叫做AlpaMayo。这是个开源的AI模型、仿真工具和数据集系列,专门为训练物理机器人和自动驾驶车辆而设计,目标是帮助自动驾驶汽车应对各种复杂的驾驶场景。你没听错,这可是史上首个让自动驾驶车辆具备思考能力的模型,能让它们“像人一样思考”。这种推理-视觉-行动的模型可以帮助自动驾驶系统处理复杂的边缘情况,比如在繁忙的十字路口遇到失灵的交通信号灯时,系统会分步骤分析问题,推理出各种可能性,然后选择最安全的行驶路径。
想要了解AlpaMayo的开源地址吗?
https://github.com/NVlabs/alpamayo
AlpaMayo拥有100亿个参数,功能强大到可以处理各种自动驾驶任务,同时又轻巧到能在普通工作站上运行。它特别为自动驾驶研究者量身打造,能够接收文本信息、环视摄像头、车辆历史数据和导航输入,最终输出决策路径和轨迹,让大家能更好地理解车辆的决策过程。
除了AlpaMayo,英伟达还开源了一部分训练数据,包含17小时的驾驶记录,成为业内最大的多元化公开自动驾驶数据集。同时,黄仁勋还发布了完全开源的AlpaSim仿真框架,供开发者评估像AlpaMayo这样的推理模型。
开发者们可以利用自己的数据来微调AlpaMayo,也可以通过Cosmos生成合成数据,将真实数据和合成数据结合起来,训练和测试自动驾驶应用。这些模型和工具将为自动驾驶生态注入新的活力,构建出完整的自动驾驶开发闭环。
AlpaSim的地址是:
https://github.com/NVlabs/alpasim
标题:机器人智能的新纪元:GROOT 1.6与Isaac Lab Arena的发布
3 发布最新机器人开源模型 GROOT 1.6
说实话,AI的发展可真是飞速,从最初的基本识别到现在的深度思考,机器人的智能也在悄然发生变化。
黄仁勋提到,大部分现有的机器人其实都是“专才”——它们在特定的任务上表现很好,但适应新情况的能力却不强。不过,现在我们已经开始看到“通才型机器人”的崭露头角。这些机器人就像刚毕业的大学生,能够应对多种情况,但在处理复杂任务时仍然显得力不从心。未来的趋势是“通专融合型机器人”,它们就像机器人领域的“博士”,既有广泛的知识又具备深厚的专长,能实现多功能与高可靠性的完美结合。为了打造这样先进的机器人,一个开放的开发平台是必不可少的。

英伟达的Isaac机器人平台为创建这种“通专融合型机器人”提供了必要的开放框架、模型和工具库。这种类型的机器人需要一个强大的“大脑”来处理复杂的任务,而从零开始训练一个机器人模型可不是件轻松的事情,所需的时间和资金都很庞大。英伟达通过提供预训练模型并向大家开放,降低了这个门槛。
黄仁勋还宣布正式推出GROOT 1.6——这是专门为人形机器人设计的最新开源推理模型。这一版本有两个显著的升级:首先,它采用了Cosmos Reason作为长效思考的中枢,这让推理能力和情境理解水平有了大幅提升;其次,它解锁了人形机器人的全身协调控制能力,让它们能够同时进行移动和物体操作。GROOT 1.6现在已经成为社区中的热门选择,在Hugging Face平台的下载量名列前茅。
GROOT开源地址:
https://github.com/NVIDIA/Isaac-GR00T
4 发布全球首个仿真环境机器人安全技能检测框架
开发机器人本来就很具挑战性,而当工作被分散到笔记本、实验室设备和云端时,协调调度就更加困难了。为了解决这个问题,英伟达推出了开源控制中心NVIDIA OSMO,就像是一个粘合剂,能够无缝整合从数据生成到训练的整个流程,简化跨桌面与云端的开发工作。再者,在现实世界中测试机器人的技能也是一大难题。为了解决这个问题,英伟达推出了Isaac Lab Arena——全球首个用于在仿真环境中安全测试机器人技能的开源框架。
接下来,老黄深入介绍了刚才提到的Isaac Lab Arena。开发者们正在教机器人掌握从精细物体抓取、线缆安装到动态环境导航等越来越复杂的技能,但在现实环境中验证这些技能却往往过程缓慢、成本高昂、风险极大。目前行业内缺乏严谨验证机器人技能的基础工具和技术,许多AI模型仍然以语言能力为测试重点,而不是机器人的实际物理动作;缺乏统一标准也让技能验证变得困难。Isaac Lab Arena作为全球首个大规模机器人策略评估和基准测试协作系统,正致力于填补这一关键空白。它整合了资产库、任务集、训练脚本以及Libero、RoboCasa、RobotIn等重要机器人社区的基准测试标准,为技能在现实部署前提供必要的基准测试框架。
标题:未来机器人与AI的全新助推器
一些前沿的机器人公司正在以 Isaac 和 GROOT 为基础,开发他们的新一代物理人工智能系统。这些系统的应用范围非常广泛,从人形机器人到外科手术机器人都有涉及。比如,波士顿动力推出的新款 Atlas 人形机器人是基于 Jetson 和 Thor 平台,并在 Isaac Lab 中经过训练的;Franco Robotics 则利用 GROOT 模型来提升其双臂操控机器人的能力;Lem Surgical 运用 Isaac 和 Cosmos Transfer 来训练外科手术机器人;LG 电子也发布了能够处理多种家务的新型机器人;Noira 则推出了基于 GROOT 开发的门廊服务机器人,设计同样借助了 Isaac Lab;FSR Labs 则通过 Thor 和 Isaac 为外科医生提供实时的 AI 导航支持。
如今,开源生态正在推动机器人技术的迅猛发展。为了顺应这一潮流,英伟达和 Hugging Face 强强联手,把 200 万英伟达的机器人专家和 1300 万 Hugging Face 的 AI 开发者社区连接在一起。通过将英伟达的顶尖工具整合到开发者现有的工作环境中,简化了开发流程。Isaac 和 GROOT 技术现已被内置到 Hugging Face 的 Lair 机器人库,开发者可以即时调用 GROOT 模型和 Isaac Lab Arena 等仿真框架来评估机器人的能力。在硬件方面,开源的 Regi 2 人形机器人能够在英伟达的 Jetson 和 Thor 平台上流畅运行,开发者可以将先进的 AI 模型直接应用于机器人中;而对于桌面级项目,开发者同样可以将 Reach Mini 和 DGX Spark 高效结合,实现本地运行自定义的 AI、语音及视觉模型。
接下来谈谈第三种计算机——机器人内部需要极致能效优化的计算单元。黄仁勋宣布,英伟达新推出了 Thor 家族的新成员 Jetson T4000。这个基于 Blackwell 架构的产品,为现有的 Orin 客户提供了高性价比的升级选择:在 40-70 瓦的功耗下,它可以提供 1200 TOPS 的 AI 算力以及 64GB 的内存,AI 性能与能效相比 AGX Orin 提升了 4 倍,并且与 T5000 的接口完全兼容,便于量产替换。预计这个模块将为机械臂、自主移动机器人以及人形机器人等多种类型的机器人提供强大支持。
接下来,黄仁勋发布了面向人工智能数据中心的新计算平台 Vera Rubin,并宣布该平台已全面投产。尽管之前已经披露了一些细节,但在这次主题演讲中,他详细讲解了系统的运作原理及其上市时间。他表示,Vera Rubin 正在生产中,首批搭载该系统的产品预计将在 2026 年下半年上市。
在演讲中,黄仁勋花了近 10 分钟介绍这款芯片的设计初衷、架构及技术细节。他提到,Vera Rubin 超算是为应对行业面临的根本挑战而设计的:AI 对计算的需求正在急剧增加,英伟达 GPU 的需求量也随之飙升。这是因为 AI 模型的规模每年都在以 10 倍的速度增长,O1 模型的发布更是标志着 AI 发展的一个拐点——推理不再是一次性生成答案,而变成了一个思考的过程。为了让 AI 学会思考,英伟达在训练后期加入了强化学习和巨大的计算量。这不再是简单的监督微调或模仿学习,而是让计算机通过不断尝试来自主学习如何执行任务。因此,预训练、后训练以及测试时扩展所需的计算量都呈现出爆炸式的增长。现在,每次推理不再是一蹴而就,大家能看到 AI 在“思考”,而思考的时间越长,得到的答案通常也越好。这也导致了每年生成的文本量以 5 倍的速度增长。
与此同时,AI 竞争已经进入白热化阶段:各方都在努力突破下一个技术边界,每次新边界的突破,都会使得上一代 AI 生成文本的成本降低约 10 倍。这种每年成本下降 10 倍的趋势,实际上反映了竞争的激烈程度——总有人在不断探索前沿。
所以说,所有这些变化本质上都是计算问题:计算速度越快,就能越早达到下一个技术前沿。由于这一切正在同时发生,英伟达决心每年都要推动计算技术的进步,绝不落后。
一年半前,英伟达开始交付 GB200,而现在 GB300 已全面量产,Vera Rubin 也已经全面投产,并将在今年发布。
Vera Rubin 的诞生恰逢 AI 下一个前沿时代的到来。它的架构由六种芯片组成,经过极致的协同设计,能够如同一体般运作。它的基础是 Vera——一款定制设计的 CPU,性能是上一代的两倍,结合 Rubin GPU。
英伟达的AI新突破:Vera Rubin 系统的独特魅力
说到SpectrumX的以太网光子技术,这可是个不简单的玩意儿!全球首个拥有512通道和200G能力的共封装光学以太网交换机,能把成千上万的机柜联结起来,打造出真正的AI工厂。
自从设计开始,团队已经投入了1.5万名工程师的努力。首台Vera Rubin NVL72机柜已经成功上线,里面装了六款创新芯片、18个计算托盘和9个NVLink交换机托盘,加上220万亿个晶体管,总重接近2吨。这标志着我们朝着AI下一个前沿迈出了令人瞩目的步伐。
为了回应大家的关注,黄仁勋还分享了这款芯片的一些技术细节。
这实际上是一个包含1152颗GPU的Rubin计算集群,由16个机柜组成。每个机柜里有72颗Rubin GPU(每颗Rubin其实是两个GPU芯片的组合)。虽然他在现场展示了实物,但有些细节他还是选择了保留,避免一下子全盘托出。

据说,这次英伟达设计了六款不同的芯片。公司内部有个好规矩:新一代的产品通常只更换一两款芯片。但问题是,正如之前提到的,每款芯片的晶体管数量都在增加,摩尔定律的速度却在放缓。晶体管数量增加的速度,根本跟不上模型规模每年10倍的飞速增长,更别说应对每年文本生成量增加5倍的挑战,甚至无法匹配文本成本每年10倍的暴跌速度。如果行业想继续向前发展,英伟达必须采取激进的协同设计,确保所有芯片在系统层面上同步创新。
这也是为什么这一代产品必须对每一款芯片进行重新设计。之前提到的每一款芯片本身都足以召开独立的发布会,过去可能需要整家公司一起努力才能完成。而这些芯片都是各自领域的佼佼者,具备革命性。
黄仁勋表示:“Vera CPU让我感到无比自豪。在功耗受到制约的情况下,它的能效是全球最先进CPU的两倍,数据处理能力也相当惊人。它是专门为超级计算设计的,而Vera GPU同样出色——如今Vera在单线程性能、内存容量等各方面都实现了飞跃。这是一项巨大的成就。”

这就是Vera CPU(单颗),旁边连着的可是Rubin GPU,确实是个巨无霸。它用上了一项超前的技术——NVFP4 TensorCore。英伟达的芯片里,Transformer引擎并不只是简单地引入4位浮点数处理,而是一个完整的处理器单元,能够动态调整精度和结构,以应对不同层次的Transformer模型:在可以降低精度的地方实现更高吞吐量,而在需要时又能恢复到最高精度。
这种动态调节能力是无法通过软件实现的(因为速度实在太快),只能内置在处理器中。这就是NVFP4的核心价值。当人们提到FP4或FP8时,对英伟达而言,这几乎没有意义——真正重要的是TensorCore的结构和它的算法。关于NVFP4,英伟达已经发表了相关论文,其在吞吐量与精度保持方面的表现令人惊叹。这是一项开创性的工作,未来这种格式和结构很有可能会成为行业的标准。
正是通过这样一种协同设计,英伟达才能在晶体管数量仅增加1.6倍的情况下,实现性能的飞跃。值得一提的是,这款芯片采用了100%全液冷的设计,确实是个重大的突破。
那么这款芯片的具体性能又如何呢?
老黄介绍,Vera Rubin具备几项令人瞩目的特性:首先,虽然功耗翻倍,但冷却液的温度依然保持在45°C,整个系统的能效提升了约两倍——这预计能为全球数据中心节省6%的电力,意义非凡。
其次,整个系统实现了机密计算安全:所有数据在传输、静态存储和计算过程中都进行了加密,所有总线(包括PCIe、NVLink、CPU-GPU以及GPU之间的互联)也都进行了加密。这让企业可以放心地将模型部署在第三方环境中,而无需担心数据泄露。
第三,为了应对AI工作负载瞬时的尖峰特性(比如AllReduce计算层会导致瞬时功率增加25%),我们实现了全系统功率平滑技术,避免了因过多保留资源而造成的能源浪费,让总功率预算得以充分利用。
最后,谈谈性能表现吧。这些图表是AI超算构建者最关注的:第一列是AI模型训练的速度——训练越快,就能越早把下一代的前沿技术推向市场,这直接关系到产品的上市时间、技术的领导力和定价权。
咱们以训练一个拥有10万亿参数的模型为例,使用的数据量高达100万亿个token。看那绿色的柱子,代表着Blackwell的性能,而Rubin的表现则远远超过了它——只需要四分之一的系统,就能在一个月内完成相同的训练任务。时间对每个人都是公平的,但训练速度和模型的规模将决定谁能更早地站在技术的最前沿。
接下来我们聊聊数据中心的吞吐量。在吉瓦级的数据中心(这可是投资了500亿美元的),能耗是一个硬性约束。因此,每瓦的性能就显得尤为重要了——如果你的每瓦吞吐量更高,那竞争力就更强。
英伟达以“全栈AI计算架构”为中心,覆盖了从底层的芯片到系统平台,再到上层的应用模型,形成了一个贯穿云端、边缘和终端的完整技术闭环。从DGX超级计算到Omniverse数字孪生,从DRIVE自动驾驶到Isaac机器人平台,英伟达正致力于把现实世界中的复杂问题转化为可计算、可迭代的AI工程系统。这不仅是在不断突破算力的极限,更是在深刻实践“AI重塑现实”这一理念——通过软硬件的协同进化、开放的生态系统以及跨领域的技术融合,英伟达正在为智能时代的根本性创新铺就一条新路。

黄仁勋的演讲真是让人耳目一新,AI的未来充满了无限可能,尤其是物理AI的概念,令人期待!
黄仁勋提到的Cursor模型真是个游戏规则的改变者,未来软件开发的前景令人振奋,希望能看到更多实际应用。
黄仁勋关于物理AI的阐述令人深思,AI不仅限于语言处理,未来将真正改变我们的生活方式,期待这种技术的成熟与应用。
黄仁勋对AI未来的展望非常激动人心,尤其是提到的物理AI,让人对未来的智能体系统充满期待。希望这些技术能早日落地,改变我们的生活。
黄仁勋的演讲让我对未来的AI充满期待,特别是Cursor模型的创新,可能会彻底改变软件开发的方式。希望这些技术能尽快普及到各个领域。
黄仁勋提到的双重平台迁移确实是个关键,GPU的加速计算将带来新的可能性,期待AI在物理世界的应用!