摩根大通最新分析指出,随着 Nvidia 明年推出用于 AI 与高性能计算(HPC)的 Vera Rubin 平台,AI 硬件供应链可能迎来重大变化。根据报告,Nvidia 计划向合作伙伴直接交付 完全组装好的 Level-10(L10)VR200 计算模组,其中包含所有计算部件、散热系统与接口。这意味着 OEM/ODM 厂商几乎不再需要自行设计关键部件,其利润空间也将因此受到挤压。目前该信息尚未获得官方确认。
从卖 GPU 到卖整机:Rubin 时代的激进整合
传闻显示,从 VR200 平台开始,Nvidia 将:
- 交付预装 Vera CPU、Rubin GPU 的整套 L10 计算托盘;
- 由 Nvidia 统一提供加速器、处理器、内存、NIC、供电系统、中板接口与液冷冷板;
- ODM 与超大规模云厂商将无法再自行设计主板或散热系统。
这不是 Nvidia 第一次尝试深度整合:在 GB200 平台时代,Nvidia 就曾交付过预组装的 Bianca 板卡,但当时层级属于 L7~L8,而 VR200 则将这一整合程度推向 L10 完整计算模块。
如果摩根大通的消息属实,这意味着 Nvidia 将掌握一台 AI 服务器近九成的价值,而合作伙伴的角色被大幅弱化为:
- 机柜级整合
- 外壳组装
- PSU 集成
- 加装机柜级冷却(如 CDU 或 sidecar)
- BMC 与管理系统
- 最终测试与部署
这些工作虽必要,但几乎不再构成技术差异化。
为何 Nvidia 要大幅提高整合度?复杂设计 + 极端散热需求是关键
Rubin 平台的硬件设计难度极高。此前黄仁勋展示过 Vera Rubin Superchip,其:
- PCB 厚重复杂;
- 使用全固态元件;
- 板级结构高度定制。
这些设计成本昂贵,也需要大量时间。摩根大通认为,若由 Nvidia 直接与 EMS(预计以富士康为首,并可能涉及广达、纬创)合作,将能显著降低难度与成本。
此外,Rubin GPU 的功耗正在急剧攀升:
- Blackwell Ultra:1.4 kW
- Rubin R200:1.8 kW
- Rubin 未公布 SKU:约 2.3 kW TDP(Nvidia 拒绝置评)
如此高功耗意味着 OEM/ODM 自研散热方案愈发困难,进一步促使 Nvidia 提前整合整个散热层级。
尽管微软等超大规模客户仍在尝试浸没式冷却、嵌入式冷却等前沿方案,但整个生态已不再像过去那样开放与自主。
OEM/ODM 的角色将被重塑:从“系统设计者”变成“系统整合商”
若 Nvidia 开始独占 L10 计算模块的制造,OEM 与 ODM 将逐渐失去服务器最关键的竞争优势,即:
- 主板设计
- 电气工程
- 散热工程
- 性能优化
未来它们的主要价值将转向:
- 企业级服务
- 管理系统与固件生态
- 全球供应链与部署
- 大规模维运支持
而服务器核心的“计算心脏”将由 Nvidia 完整控制与标准化生产。
更激进的未来?Kyber 超大规模架构与 800V 机房或进一步推动完全垂直整合
行业还在关注另一个问题:
Nvidia 是否会将整合范围继续提升至“整机柜”乃至“整数据中心级”方案?
原因在于:
- Rubin Ultra 将驱动 Kyber NVL576 机柜级系统;
- 配合即将普及的 800V 数据中心架构;
- 单机柜可能达到 兆瓦级功耗;
- 系统复杂度已超越一般 ODM 能力上限。
在这种背景下,Nvidia 若进一步实现“机柜级整合”,甚至将数据中心架构交由 AWS、微软等合作伙伴直接部署,似乎已经成为未来趋势。
供应链将被重新定义,Nvidia 利润大幅提升
从商业角度来看,Nvidia 此举可能:
- 提高毛利率(因为不再只卖 GPU,而是卖整机);
- 控制产品设计节奏,让 GPU、系统、冷却方案同步迭代;
- 限制 ODM 的利润空间,把更多价值锁在 Nvidia 自身;
- 让合作伙伴依赖 Nvidia 的整体生态,而非自行研发替代方案。
简言之:
这是 Nvidia 的终极垂直整合战略:从芯片,到系统,到架构,再到整个数据中心。
随着 Vera Rubin 平台逐渐量产,全球 AI 服务器产业链可能被迫重组,而 Nvidia 的主导地位将进一步强化。