欢迎访问深圳市中小企业公共服务平台电子信息窗口

英伟达Rubin平台量产:六芯片协同,推理成本骤降10倍

2026-01-06 来源:电子工程专辑
180

关键词: 英伟达 Rubin平台

当地时间1月5日,英伟达在CES2026展会上发布了NVIDIA Rubin平台,正式开启了下一代人工智能时代包含六款全新芯片,旨在打造一台性能卓越的人工智能超级计算机。

作为继Hopper、Blackwell之后的最新一代AI计算平台,NVIDIA Rubin不仅是一次硬件升级,更是一场由六款全新芯片深度协同构建的系统级革命。其核心目标直指当前AI发展的最大瓶颈:高昂的推理成本与训练效率。

据英伟达方面数据,Rubin平台可将每个Token的推理成本降低高达10倍,训练混合专家(MoE)模型所需的GPU数量减少至四分之一。

Rubin平台的突破性在于其“全栈协同设计”理念——不再孤立优化单一芯片,而是将Vera CPU、Rubin GPU、NVLink 6交换机、ConnectX-9 SuperNIC、BlueField-4 DPU和Spectrum-6以太网交换机六大组件无缝集成,形成一台性能惊人的AI超级计算机。

“Rubin的推出恰逢其时,因为人工智能的训练和推理计算需求正呈爆炸式增长,”英伟达创始人兼首席执行官黄仁勋表示。“凭借我们每年推出新一代人工智能超级计算机的节奏,以及六款全新芯片的深度协同设计,Rubin的推出标志着我们向人工智能的下一个前沿领域迈出了巨大的一步。”

Rubin平台以美国先驱天文学家Vera Florence Cooper Rubin的名字命名,她的发现改变了人类对宇宙的理解。该平台包括NVIDIA Vera Rubin NVL72机架式解决方案和NVIDIA HGX Rubin NVL8系统。

英伟达介绍,Rubin平台旨在满足复杂AI工作负载的需求,其五项突破性技术包括:

第六代 NVIDIA NVLink:提供当今大规模MoE模型所需的快速、无缝的GPU间通信。每个GPU提供3.6TB/s的带宽,而Vera Rubin NVL72机架则提供260TB/s的带宽——比整个互联网的带宽还要大。NVIDIA NVLink 6交换机内置网络内计算能力,可加速集体操作,并新增多项功能以增强可维护性和弹性,从而实现更快、更高效的大规模AI训练和推理。

NVIDIA Vera CPU:专为智能推理而设计,NVIDIA Vera是面向大规模AI工厂的最高效能CPU。这款NVIDIA CPU采用88 个 NVIDIA定制Olympus内核,完全兼容Armv9.2架构,并具备超高速NVLink-C2C连接。Vera提供卓越的性能、带宽和业界领先的能效,可支持各种现代数据中心工作负载。

NVIDIA Rubin GPU: Rubin GPU采用第三代Transformer引擎,具备硬件加速自适应压缩功能,可为AI推理提供50 petaflops的NVFP4计算能力。

第三代NVIDIA机密计算:Vera Rubin NVL72是首个提供NVIDIA机密计算的机架级平台,可在CPU、GPU和NVLink域中维护数据安全,从而保护全球最大的专有模型、训练和推理工作负载。

第二代RAS引擎:Rubin平台涵盖GPU、CPU和NVLink,具备实时健康检查、容错和主动维护功能,可最大限度地提高系统效率。机架采用模块化、无线缆托盘设计,组装和维护速度比Blackwell快18倍。

目前,NVIDIA Rubin已全面投入生产,基于Rubin的产品将于2026年下半年通过合作伙伴推出。

尽管Rubin尚未正式出货,但已获得全球顶级生态支持。AWS、谷歌云、微软Azure、甲骨文OCI四大云厂商将于2026年下半年率先上线Rubin实例;CoreWeave、Lambda、Nebius等AI原生云服务商同步跟进。微软更宣布在其下一代“Fairwater AI超级工厂”中大规模部署Vera Rubin NVL72系统,支撑其Copilot+生态。

硬件方面,戴尔、HPE、联想、超微、思科等服务器厂商将推出基于Rubin的HGX NVL8(8-GPU)和DGX SuperPOD参考架构,覆盖从企业私有云到国家级AI实验室的全场景需求。