黄仁勋的“汽车野心”,不止于芯片
关键词: 物理AI 自动驾驶 NVIDIA AGX Thor Alpamayo
在数字技术飞速发展的今天,一场新的智能革命正悄然来临——物理AI将计算的力量从虚拟的信息空间带入真实的物理世界。这意味着,计算的力量不再只局限于5万亿美元的信息市场,而是可以进入到100万亿美元的物理世界市场,而自动驾驶则成为这场革命的关键桥梁之一。
不过,在过去依赖摩尔定律的日子里,计算能力会以指数速度增长,例如每五年性能提升10倍,十年提升100倍。但现在,随着摩尔定律在CPU和通用计算机上的效用逐渐终结,单纯依靠这一定律已经不足以解决许多问题,打造针对特定算法的专用计算机,正成为新的趋势。
物理AI,将计算带入现实世界
为此,在CES 2025大会上,NVIDIA CEO黄仁勋就再次提出了著名的“三台计算机”理念,并将其作为NVIDIA推动“物理AI”在自动驾驶等领域发展的核心技术体系。
● 本体计算机。嵌入在自动驾驶汽车或人形机器人中。AGX Thor就属于这一类,黄仁勋称它为“实时推理机器”,也是迄今为止NVIDIA发布的最强辅助驾驶大脑芯片。
● AI工厂计算机。在使用本体计算机之前,必须先开发它的“大脑”,这就需要依赖DGX系统,处理海量原始数据,生成物理AI算法、物理AI模型和神经网络,再部署到智能汽车上。
● 仿真计算机。物理世界的数据无法直接从互联网获取,只能通过真实世界传感器采集,或基于物理定律和世界规则进行计算机仿真生成。仿真不仅能生成数据,还能在部署前测试车辆,确保它们在真实环境中安全运行,且测试速度可快于现实时间。

NVIDIA方面认为,Al能力的高低,不仅取决于纸面上的算力规格,更离不开坚实的硬件参考设计、稳定的底层软件、丰富的中间件以及高效的AI编译器。
这也是NVIDIA推出完整Isaac平台、NVIDIA Cosmos世界基础模型平台的原因所在,前者结合了三台计算机所需的软件栈,包括:运行时和计算环境、仿真工具、训练框架;后者是世界基础模型及框架等的集成平台,支持构建理解物理世界的AI,并与Omniverse等仿真平台结合,来生成更精确、更大规模的数据。

NVIDIA Cosmos
从这个角度来说,这些“世界基础模型”是能理解世界物理规律的AI模型,人们可以将真实世界数据和可信仿真数据输入这些模型进行训练。一旦有了这样理解世界的AI基础模型,就可以将其与传统仿真结合,构建更精准、更高效的仿真平台。
于是,我们看到在车端Al芯片及软件领域,NVIDIA严格遵循ASPICE流程与功能安全标准,将芯片与软件作为两个独立的SEooC交付给客户,从而为客户构建了一个稳定、可靠的开发平台,助力其高效打造先进的辅助驾驶系统。
自动驾驶的大脑,再强都不为过
前文既然谈到了NVIDIA DRIVE AGX Thor,那不妨再花些笔墨,回顾一下NVIDIA自动驾驶平台的核心能力。
先来看看NVIDIA DRIVE AGX Orin,作为新一代电动汽车、无人驾驶出租车、班车和卡车引擎的集中式辅助驾驶和AI计算机,DRIVE Orin在2022年3月已经开始出货。该芯片每秒可完成254万亿次运算(TOPS),旨在处理辅助驾驶汽车中同时运行的大量应用程序和深度神经网络(DNN),并同时达到了ISO 26262、ASIL-D等系统安全标准,可支持L2+至L5级自动驾驶功能。

NVIDIA DRIVE AGX Orin
而单颗算力达到 1000TOPs(FP8)、2000TOPs(NVFP4)的集中式车载计算平台“NVIDIA DRIVE Thor”更是一经宣布便技惊四座,套用黄仁勋的话来说,“这颗芯片就是为汽车的中央计算架构而生”。

NVIDIA DRIVE AGX Thor SoC
在此基础上,NVIDIA搭建起了全球智能汽车领域最具影响力的L4级自动驾驶参考平台DRIVE AGX Hyperion™ 10,其“大脑”由两颗DRIVE AGX Thor芯片组成,支持DriveOS操作系统和最新发布的Alpamayo1大模型,安全框架NVIDIA Halos贯穿始终,并深度融入NVIDIA的“三台计算机-DGX+OVX+AGX”闭环生态。

NVIDIA DRIVE AGX Hyperion 10
因此,DRIVE AGX Hyperion™ 10在本质上就是一个高度集成、预验证、可量产的参考设计,旨在让车企和自动驾驶公司跳过繁琐的底层集成,直接基于该平台开发上层应用,可被视作“自动驾驶领域的Android”。
AI模型,对全世界开放
再来谈一谈CES 2026期间,NVIDIA重磅发布的面向自动驾驶的VLA推理大模型Alpamayo。作为将AI引入各个领域的全面举措的一部分,黄仁勋在主题演讲中强调说,Alpamayo的发布标志着“物理AI的ChatGPT时刻已然到来,机器开始具备理解真实世界、推理并付诸行动的能力。无人驾驶出租车将是最早受益的应用之一。”

NVIDIA Alpamayo
VLA即Vision-Language-Action(视觉-语言-动作),是自动驾驶领域继“BEV”和“端到端”之后最热门的词汇。其核心突破是解决了传统自动驾驶系统决策可解释性不足、“长尾”场景适配薄弱两大痛点,实现从“感知-执行”到“类人推理”的技术跃迁。简单而言,就是在自动驾驶中,模型会将传感器数据先变成语言和符号,再通过推理形成决策交由车辆执行,从而避免“黑箱”情况。
这就打破了传统自动驾驶“感知-决策-执行”的线性流程壁垒,通过语言作为中间载体实现跨模块的语义贯通,从根源上解决了决策可解释性问题。黄仁勋表示:“ Alpamayo做了一些非常特别的事情。它不仅接收传感器输入并激活方向盘、刹车和加速,它还推理它将要采取的行动。它告诉你它将要采取什么行动,它得出那个行动的理由,当然还有轨迹。”
按照NVIDIA的官方说法,Alpamayo并不是直接部署于车端的模型,而是作为大规模教师模型,供开发者调优、蒸馏,成为其完整辅助驾驶技术栈的核心基础。除模型开放外,NVIDIA还在Hugging Face开放超1700小时物理AI数据集,覆盖广泛的地理区域和环境条件;AlpaSim全开源端到端仿真框架提供逼真的传感器建模、可配置交通动态,以及可扩展的闭环测试环境,支持快速验证与策略优化。

NVIDIA TensorRT Edge-LLM
其实,还有一款开源工具也很值得一提,那就是NVIDIA ACCV-Lab(Accelerated Computer Vision Lab)。这是英伟达在2025年12月推出的一套面向高级驾驶辅助系统(ADAS)的系统化的工具集,能够解决自动驾驶研发中最耗时、最繁琐的环节——海量视频数据的高效训练。

NVIDIA ACCV-Lab
正在攻坚自动驾驶的团队可以将ACCV-Lab视作自动驾驶训练的“效率加速器”。它不直接提供感知模型,而是通过优化数据预处理与训练流水线,让开发者能把精力聚焦在算法创新上,而非被底层工程细节拖累。
结语
正如DeepSeek将推理能力带入开源领域一样,NVIDIA也正在构建一个由DRIVE Orin/Thor硬件平台、业界首款面向移动出行领域的开放式大规模视觉-语言-动作推理模型Alpamayo 1、DRIVE Hyperion自动驾驶参考架构、物理级精确仿真平台NVIDIA DRIVE Sim、世界基础模型Cosmos组成的“完整的、开放的推理型自动驾驶生态”。
“这些模型对全世界开放。”黄仁勋说,“如今,NVIDIA以一种非常独特的方式在平台上打造了前沿的AI模型。我们以完全开放的方式构建AI模型,以便让每家公司、每个行业、每个国家都能参与到这场AI变革中来。”