Google的AI模型Gemini 3.0横空出世,引爆市场对于AI ASIC挑战AI GPU的话题,加上Google自研TPU已经十年,Ironwood TPU v7更被视为有机会挑战NVIDIA最新AI GPU架构的挑战者,其中,传出与台湾IC设计龙头联发科合作,有望强强联手,挑战NVIDIA庞大的生态系。

不过,AWS不让Google专美于前,在年度大会正式宣布新款AI晶片Trainium 3 即将上线,将采用3奈米制程,大幅缩短计算时间,降低AI推论成本,同时宣布最新自研AI晶片Trainium 4,效能将是Trainium 3的6倍,记忆体频宽提升4倍,还将整合 NVIDIA NVLink 与 MGX 架构,使其能在高密度 AI 训练与推论环境中扩大效能表现,双方展现紧密合作关系。

NVIDIA说明,NVLink Fusion 结合 AWS 自研硬体后,可让系统在不依赖传统乙太网路架构的情况下,达成更低延迟、更快互连频宽,加速模型训练速度。AWS 目前已大规模部署搭载 NVIDIA GPU 的 MGX 机架,导入 NVLink Fusion 后,可进一步简化机架设计与冷却配置,同时提高部署弹性。这也象征著,AWS采用了NVIDIA的Scale-up的解决方案,有助于NVIDIA巩固与博通(Broadcom)在Switch晶片市场的竞争力。

供应链方面,AWS 将使用 NVLink Fusion 生态系提供的完整元件,涵盖电力、冷却与机箱等,使其能更快速落地客制化 AI 伺服器平台,也让 AWS 在 AI 服务扩张时更具规模经济性。NVIDIA Vera Rubin 架构也将完全支援 AWS 的 Elastic Fabric Adapter 与 Nitro System,使新的 AI 基础架构能在保持云端相容性的前提下,提供更强大的网路效能。

NVIDIA 执行长黄仁勋表示,AI 已形成「运算越多、AI 越聪明;AI 越聪明、应用越广;应用越广,又推动运算需求上升」的良性循环。他强调:「随著 NVLink Fusion 导入 AWS Trainium 4,我们正把 NVIDIA 的垂直扩展架构与 AWS 的客制化晶片结合,打造新一代加速运算平台。」

AWS 执行长 Matt Garman 表示,双方长达 15 年的合作正在进入新阶段,未来透过 NVLink Fusion,AWS 将能为客户带来更高效能与扩展性。

在 GPU 部署方面,AWS 宣布导入包括 NVIDIA HGX B300、GB300 NVL72 等 Blackwell GPU,加速推动新一代 AI 训练与推论。面向视觉运算的 RTX PRO 6000 Blackwell 伺服器 GPU 也将在未来几周于 AWS 上提供。

这些 GPU 将成为 AWS 新服务「AI Factories」的基础动能。AI Factories 是由 AWS 代管、建置于客户自有资料中心的 AI 云端服务,可让企业在维持资料主权的前提下,使用先进 AI 架构,满足日益严格的主权 AI 要求。

AWS 与 NVIDIA 也将在全球共同推动主权 AI 云部署,使企业与政府机构能在遵守在地法规的前提下,取得 Blackwell GPU、Spectrum-X 网路交换器等完整 AI 加速平台。这套架构对公部门意义重大,可用于联邦级 AI 训练、高效能运算等需求,同时确保资料安全性与可控性。

在软体层面,NVIDIA 的开放模型 Nemotron 已整合至 Amazon Bedrock,提供企业在无伺服器架构下快速部署生成式 AI 与智慧代理(agent)。包括 CrowdStrike、BridgeWise 等业者已率先采用。AWS 也将在 OpenSearch Service 引进搭载 cuVS 的 GPU 加速向量索引,早期使用者已看到索引速度提升最多 10 倍、成本降至四分之一,显示非结构化资料处理正全面转向 GPU。

此外,NVIDIA Cosmos 世界基础模型(WFM)也已在 AWS EKS 与 AWS Batch 上提供,用于训练与模拟机器人模型。多家机器人公司已采用 NVIDIA Isaac 平台结合 AWS 用于资料收集、模拟与验证,加速物理 AI 的发展。

今年 NVIDIA 获颁 AWS Global GenAI Infrastructure and Data Partner of the Year,更凸显双方长期合作的深度。随著 NVLink Fusion 与自研晶片整合、Blackwell GPU 进入 AWS 生态系、AI Factories 上线,双方将共同打造更完整、更高效的全球 AI 基础架构。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
降息预期持续升温 美股收红