易IC电子行业销售管理系统 - 易IC电子行业库存管理软件
首页 / 行业新闻 / 正文

Nvidia在CES 2026的亮点

2026-02-19   电子工程专辑
阅读时间约 3 分钟
Nvidia是CES 2026上最具影响力的公司,推出了多项与人工智能和汽车相关的重大产品。
下表总结了Nvidia的公告和信息,重点介绍了对汽车行业的影响。对于自动驾驶(AV)行业,Nvidia的Alpamayo AV平台是CES上最重要的公告。Nvidia将其描述为首个基于视觉语言动作(VLA)推理或使用思维链推理策略的AI模型。Alpamayo还具有模拟能力,并配有基于1700小时驾驶数据的物理AI开放数据集。
Nvidia CES 2026 Overview_Egil Juliussen
点击放大
Vera Rubin平台由六块超级芯片组成,如上表所示。这些芯片旨在大幅提高使用数千块Vera Rubin平台芯片的大规模AI系统的性能。这需要提高以太网连接的通信性能,以及IT中心中跨机架系统的交换机和相关通信芯片。
上表列出了三个子系统,以下是更多细节。Vera Rubin超级芯片是一块带有两个Rubin GPU、一个Vera CPU、大量内存和NVLink开关芯片的电路板。
合作伙伴内容
查看所有
David Haynes,Lam Research特种技术副总裁  02.18.2026
Rafael Taubinger,IAR产品经理  02.16.2026
Vera Rubin计算托盘包含两块超级芯片、一个BlueField-4数据处理单元(DPU)和ConnectX-9 SuperNIC。SuperNIC的主要目的是加速多个GPU在AI应用中的网络性能。它是将许多Rubin GPU组合成更大的AI系统的关键因素。计算托盘是基于GPU的AI系统的机架核心构建模块。
Vera Rubin NVLink Switch Tray包括四个NVLink Switches,是连接机架系统中GPU的另一个核心网络子系统。它使用四个NVLink switch芯片,每个GPU提供3.6 TB/s的带宽。
Vera Rubin NVL72机架是Rubin平台的旗舰产品。它是一个用于在IT数据中心构建一系列AI系统的系统。它被设计成使整个机架作为一个连贯的机器在一个更大的AI工厂中运行。
DGX SuperPOD是一个完整的AI训练或推理系统,由八个Vera Rubin NVL72机架组成。它有576个Rubin GPU和288个Vera CPU。许多DGX SuperPODs可以连接成拥有数十到数百个DGX SuperPODs的AI工厂。
以下图像提供了六种芯片的摘要信息,这些芯片是Nvidia AI工厂和物理AI系统的构建基础。该概述基于Nvidia详细描述Rubin平台的30多页内容。文章提供了每种芯片的性能规格和由大量Rubin平台芯片构建的AI系统架构信息。完整的Nvidia Rubin平台描述请访问 此处
下一张图片展示了链接文章中描述的六种超级芯片:Vera CPU、Rubin GPU、ConnectX-9、NVLink 6 Switch、BlueField-4 DPU和Spectrum Ethernet Switch。下面提供了每种芯片的摘要描述。
Nvidia Vera Rubin Platform_Six New SoCs_Egil Juliussen
CES 2026
点击放大
一个关键策略是共同设计六个Rubin平台芯片,在网络、安全、软件、电源供应和冷却方面作为一个单一系统进行优化,而不是单独优化。通过这样做,Rubin平台将数据中心视为计算单位,而不是单个GPU服务器作为计算单位。
Vera CPU
Vera是新一代CPU,专为管理数千个GPU和AI工厂的高利用率而设计。不像传统通用主机那样工作,Vera针对基于GPU系统的rack间协调、数据移动和一致内存访问进行了优化,例如代理处理AI用例。
Vera拥有88个Olympus CPU核心,完全兼容Arm v9.2。每个核心有2 MB的L2缓存,可提供176个空间多线程操作。Vera拥有162 MB的统一L3缓存。内存容量最高可达1.5 TB的LPDDR5X内存。内存带宽最高可达1.2 TB每秒。
Vera引入了空间多线程,这是一种新的多线程类型,通过物理划分资源而不是时间切片来实现每个核心的两个硬件线程。
Rubin GPU
Rubin是最新一代GPU,专为持续训练、后训练和始终在线的AI工厂中的推理而设计。当前的AI工作负载受限于峰值浮点运算(FLOPS)。它们也受到执行效率能否在计算、内存和通信之间保持的限制。Rubin GPU专为解决这个问题而设计,优化执行路径,将功率、带宽和内存转化为更好的AI工作负载性能。
为了维持吞吐量,Rubin GPU在三个紧密耦合的维度上改进其架构:计算密度、内存带宽和机架规模通信。在硅层面,Rubin为变压器时代的工作负载扩展了每个关键子系统。GPU集成了224个流式多处理器(SM),配备第六代张量核心,优化低精度NVFP4和FP8执行。
芯片复杂度由晶体管数量衡量,Rubin为3360亿个晶体管,比Blackwell GPU增加了1.6倍。Rubin使用了最新的高速内存HBM4,于2025年4月推出。
性能提升为2至5倍,每个GPU的带宽为3.6 TB/s。HBM4带宽为22 TB/s,比Blackwell高出2.8倍。
NVLink 6 Switch
NVLink 6 Switch是增加GPU到GPU带宽的第六代技术。它是提供堆叠技术的芯片,适用于Rubin平台芯片和系统。它使得72个Rubin GPU在NVL72系统内作为一个紧密耦合的加速器运行,在通信主导的工作负载下具有统一的延迟和持续的带宽。每个Rubin GPU通过NVLink 6连接,双向带宽为3.6 TB/s。NVLink 6开关托盘在机架中形成一个全对全拓扑结构,允许任何GPU与其他任何GPU通信,具有一致的延迟和带宽。从软件角度来看,机架表现得像一个大的加速器,简化了通信密集型AI模型的扩展。36个NVLink 6开关用于连接NVL72系统中的GPU。
ConnectX-9
ConnectX-9是Spectrum-X以太网结构的智能端点,提供可预测的性能,同时强制流量隔离和安全操作。在Vera Rubin NVL72机架规模架构中,每个计算托盘包含四个ConnectX-9 SuperNIC板,为每个Rubin GPU提供1.6 Tb/s的网络带宽。ConnectX-9在AI工厂网络中也起着关键作用。集成的加密引擎支持数据传输和静态数据的高吞吐量加密,实现安全操作。
BlueField-4 DPU
BlueField-4 DPU是一个双芯片封装,结合了一个64核Grace CPU用于基础设施卸载和安全。内存容量为168 GB,带宽为250 GB/s。BlueField-4集成了ConnectX-9高速网络芯片,用于紧密耦合的数据移动。BlueField-4提供高达800 Gb/s的超低延迟以太网或InfiniBand连接。Nvidia称之为:“为AI工厂的操作系统供电。”
BlueField-4引入了高级安全可信资源架构(ASTRA),这是一个系统级信任架构,在计算托盘内建立信任域。ASTRA为AI基础设施建设者提供了一个单一的可信控制点,可以安全地配置、隔离和运行大规模AI环境,而不会影响性能。
在Rubin平台上,BlueField-4作为AI工厂的软件定义控制平面运行。它独立于主机CPU和GPU强制安全、隔离和确定性操作。通过将基础设施服务卸载并加速到专用处理层,BlueField-4使AI工厂能够扩展并保持一致的性能、强大的隔离和高效的操作。
Spectrum-6以太网交换机
AI工厂必须超越单一的Vera Rubin NVL72系统,可能需要跨越地理分布的数据中心进行扩展。性能则取决于网络在同步、突发AI流量下的可预测行为。为了支持AI工厂的扩展和跨区域部署,Rubin平台引入了Spectrum-X以太网光电技术。这是基于共封装光学的新一代Spectrum-X以太网交换技术,推动了Nvidia为加速计算定制的以太网技术。
Spectrum-6以太网提供可预测、低延迟、高带宽的连接,通过先进的拥塞控制、自适应路由和无损以太网行为。Spectrum-6通过使用512个端口和200 Gb/s的数据传输速率,将每交换芯片的带宽翻倍至102.4 Tb/s。

从芯片到系统:Vera Rubin超级芯片到DGX SuperPOD

Nvidia的Rubin平台芯片用于构建子系统和系统。这些系统成为AI工厂的构建模块。下图显示了三个子系统和两个系统,它们是AI工厂的核心构建模块。Vera Rubin超级芯片是子系统级别的关键构建模块。Vera Rubin NVL72计算托盘是下一步,因为它由多个超级芯片构成。Vera Rubin Switch Tray使用NVLink 6开关芯片来增加GPU带宽并扩大Vera Rubin NVL72系统的性能。下左图显示了一个Vera Rubin NVL72机架系统。
Nvidia Vera Rubin Platform_From Chips to Systems_Egil Juliussen
CES 2026
点击放大
右下角的图片显示了一个DGX SuperPOD,其中包含了DGX Vera Rubin NVL72系统,这是AI工厂的主要构建模块。
Vera Rubin超级芯片
Vera Rubin超级芯片是大型AI系统的计算基础构建模块。每个超级芯片通过内存相干的NVLink-C2C互连将两个Rubin GPU和一个Vera CPU结合起来,将传统的CPU-GPU边界融合成一个统一的机架规模执行域。
通过在单一主机主板上将GPU计算与高速CPU数据引擎集成,超级芯片提高了数据局部性,减少了软件开销,并在异构执行阶段维持更高的利用率。它成为了芯片级创新与机架规模智能之间的架构桥梁。
Vera Rubin NVL72计算托盘
NVL72计算托盘将Vera Rubin超级芯片转化为可部署、可维护的单元,用于构建AI工厂。每个托盘集成了两个超级芯片、电源供应、冷却、网络和管理,形成一个模块化、无电缆的装配。这些托盘经过优化,具有高密度、可靠性和易操作性。
Vera Rubin NVL72Link开关托盘
NVL72Link开关托盘将多个计算托盘转换为一个连贯的系统,并确保随着模型、批次大小和推理深度的增加,性能可以可预测地扩展。
Vera Rubin NVL72系统
Rubin平台的旗舰产品是Vera Rubin NVL72机架系统。它被设计成使整个机架在更大的AI工厂中作为一个连贯的机器运行。NVL72系统机架是DGX SuperPODs的构建模块。每个NVL72机架有八个Rubin GPU。Spectrum-X以太网共封装光学是将NVL72计算托盘连接到Vera Rubin NVL72机架系统的关键子系统。
DGX SuperPOD with DGX Vera Rubin NVL72
DGX SuperPOD代表了Rubin平台大规模部署的蓝图。由八个DGX Vera Rubin NVL72系统组成,它定义了在生产环境中AI工厂经济性、可靠性与性能汇聚的最小单位。DGX SuperPODs是即插即用的系统,许多这样的系统用于部署AI工厂。
DGX SuperPOD被设计为一个完整的系统。从硅片和互连到编排和运营,每一层都经过协同设计和验证,以实现持续的利用率、可预测的延迟和效率。NVL72的命名基于72个Rubin GPU,这些GPU包含在名称中。
DGX SuperPOD的硬件由一个完整的数据中心平台补充,包括计算、存储、网络、软件和基础设施管理。
Nvidia软件
Nvidia还强调了其不断增长的AI模型扩展软件组合,重点是面向汽车和工业应用的模型,包括物理AI。物理AI的一个简单解释是,它遵循物理定律,如运动、速度、时间等。Nvidia专注于自动驾驶汽车和机器人作为第一个开发物理AI软件和系统的领域。
Nvidia围绕其GPU平台有一个令人印象深刻的生态系统,包括由于CUDA平台在GPU软件中的普遍性而领先的软件生态系统。下图显示了与Vera Rubin平台一起工作的CUDA-X库。
Nvidia CUDA-X libraries
CES 2026
点击放大
CUDA平台涵盖了编程模型、核心库和通信栈,加速应用程序并展示机架规模系统的功能。开发者可以使用Nvidia的Collective Communications Library(NCCL)、Inference Transfer Library(NIXL)和其他NVLink感知软件,将Rubin GPU编程为单独设备或作为单一72-GPU NVLink域的一部分。这种设计使模型能够在机架上扩展,而无需自定义分区、拓扑感知的变通方法或手动编排。
Nvidia训练和定制堆栈的核心是NeMo框架。它为构建、适应、对齐和部署大型AI模型提供了一个端到端的工作流程。NeMo将数据整理、大规模分布式训练、对齐和参数定制整合到一个生产导向的框架中。
这些库和软件平台使开发者能够专注于模型行为,而不是硬件特定的调整,同时仍然从底层GPU平台获得出色的性能。
Nvidia AV生态系统
下图显示了Nvidia的AV生态系统,如Jensen Huang在2026年1月5日的主旨演讲中所展示的。左边列出了九家拥有AV软件平台的公司。其中有三家美国公司:Aurora、Nuro和Plus。Plus在中国有重要的业务。Waabi总部在加拿大,但主要在美国运营。Wayve是一家英国公司,有欧洲和美国的测试活动。其余五家公司均位于中国:Deeproute.ai、Momenta、Pony、WeRide和Zyt。
Global L4 and robotaxi ecosystem building on Nvidia
CES 2026
点击放大(来源:Jensen Huang在CES 2026上的主旨演讲
图表中间列出了Nvidia的11家原始设备制造商(OEM)和移动平台。再次,大多数公司都位于中国,只有两家欧洲OEM(梅赛德斯-奔驰和Stellantis)和Uber是唯一的美国公司。在CES 2026上宣布了几家新的OEM客户,包括JLR和Lucid。
右侧列出了14家一级供应商和硬件合作伙伴。包括一些主要的一级供应商,如Aumovio(前身为Continental)、Bosch、Denso、Magna和ZF。

总结与展望

CES仍然是电子产品的首要贸易展,包括汽车电子和自动驾驶汽车,其中机器人出租车最引人注目。参展商数量超过4,100家,比2025年减少了400家,主要是由于中国参与度显著下降。参观人数达到148,000人,比去年的141,000人有所增加。
Nvidia在CES 2026上占据主导地位,并宣布了许多新产品或其它产品的升级版本。Vera Rubin平台的六种芯片将对AI技术产生重大影响,包括物理AI,如自动驾驶汽车和机器人。
Nvidia的六种新芯片旨在增强运行训练和推理模型的AI系统机架的性能。为此,Nvidia利用了其在设计和运行AI模型方面的知识,从芯片到系统。上面提到的Nvidia论文提供了所有六个Rubin平台芯片的大量数据和详细信息。它还展示了Vera Rubin平台如何用于构建IT数据中心的新AI系统,用于AI模型的训练和推理。Nvidia将这些数据中心称为AI工厂。
下一张图片是Nvidia的Vera Rubin平台的总结——从芯片及其在子系统、系统和AI工厂中的使用方式。它是系统构建的简化框图。
下一张图片的左侧显示了Vera Rubin平台中的六种芯片及其在前面部分中包含的摘要信息。中间的绿色方框显示了三个重要的子系统。Vera Rubin超级芯片有两个Rubin GPU和一个Vera CPU。两个Vera Rubin超级芯片与两个ConnectX-9芯片和一个BlueField-4 DPU一起用于Vera Rubin计算托盘。
Nvidia Vera Rubin Platform_Chips to System_Egil Juliussen
Vera Rubin NLV72机架系统,位于蓝色方框中,使用18个计算托盘和9个NVLink开关托盘。这些硬件加起来有36个Vera CPU和72个Rubin GPU芯片。NLV72机架系统总共有2200亿个晶体管,来自所有芯片和子系统。将这个数字放在眼前:目前世界人口约为81.7亿,一个Nvidia Vera Rubin NLV72包含相当于地球每个人26900个晶体管。对于美国人口来说,同一系统相当于每人约64万个晶体管。
顶部的红色方块显示了一个带有DGX Vera Rubin NVL72的Nvidia DGX SuperPOD,使用了八个NVL72机架。预计AI工厂将部署数百个DGX SuperPODs。
从回顾Nvidia在CES 2026的产品介绍中,我注意到Nvidia拥有的巨大能力——从尖端芯片到服务于AI工厂的计算机系统。Nvidia正在展示最先进的芯片、用于构建AI聚焦计算机系统的子系统硬件构建块,以及形成AI聚焦IT中心的主要驱动力。此外,Nvidia还在提供补充其硬件组合的软件平台,并且愿意为许多行业创建广泛的生态系统。在我40多年分析以计算机为中心的行业中,我从未见过一家公司获得如此广泛的专业知识和技能来利用、使用并发展它。
Nvidia未来将面临越来越多的竞争,但由于其横跨多个硬件和软件层级的广泛平台战略,它将在很长时间内保持领先地位,即使AI泡沫破裂。

|
|
|
|
TOP
©Copyright www.eic.net.cn 2003-2026 BeiJing MengKaiGuan Software Exploiture Co.,Ltd. All Rights Reserved.    北京梦开关科技有限公司
IC元器件库存管理软件 IC元器件库存管理系统 IC元器件管理软件 IC元器件进销存 IC元器件库存管理软件 IC元器件库存管理系统 快递查询接口
QQ: 880717
18500810082