NVIDIA 的 Blackwell 架构专为满足这些对效能需求日渐升高的新型应用而打造。在最新一轮 MLPerf Training 测试中,同时也是自 2018 年推出这项基准测试以来的第 12 轮测试,NVIDIA AI 平台在每项基准测试中均展现出最大规模效能,并驱动该基准测试中最具挑战性的大型语言模型(LLM)测试项目「Llama 3.1 405B 预训练」的所有结果。

NVIDIA 平台是唯一在每项 MLPerf Training v5.0 基准测试中均有提交结果的平台,这突显其在各种 AI 工作负载中的卓越效能与任务多样性,包括大型语言模型、推荐系统、多模态大型语言模型、物体侦测与图神经网路(GNN)。

这次大规模提交的测试结果使用两部搭载 NVIDIA Blackwell 平台的 AI 超级电脑:Tyche 采用 NVIDIA GB200 NVL72 机架规模系统打造,Nyx 则以 NVIDIA DGX B200 系统为基础。此外,NVIDIA 也与 CoreWeave 和 IBM 合作,提交 GB200 NVL72 的测试结果,共使用 2,496 颗 Blackwell GPU 与 1,248 颗 NVIDIA Grace CPU。

在最新的 Llama 3.1 405B 预训练基准测试中,Blackwell 的效能较上一代架构在相同规模下高出 2.2 倍。在 Llama 2 70B LoRA 微调基准测试中,搭载 8 颗 Blackwell GPU 的 NVIDIA DGX B200 系统效能,较上一轮使用相同数量 GPU 的测试结果提升达 2.5 倍。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
快去加油! 美中进行贸易谈判油价涨 下周汽油、柴油止跌上涨