陆行之发文分析重点如下:
第一,AMD正式推出 MI350 AI GPU系列, 提前于6月量产出货(原本是下半年推出),使用台积电3nm 制程技术,Nvidia现在量产的B200/GB200/GB300还是用4nm 制程技术。
第二,MI355X装了288GB HBM3e Dram,宣称一个gpu可以支援 5200参数的大语言模型,并在浮点运算FP 6, 64比B200/GB200快两倍,但在其他精度上没什么优势。
第三,MI355X 比第一代的MI300X晶片AI效能改善了35倍。
第四,在Deepseek R1的模型运算下,AMD 宣称其MI355X GPU比B200快了20%,在Llama 3.1 模型,AMD 宣称其MI355X GPU比B200快了近30%;因为比较便宜,可以比B200制造40% more tokens per dollar. 但在pre training 方面公司没有明显胜出。
第五,AMD也推出一个128/96颗gpu 的水冷机柜及64颗GPU的气冷机柜跟NVL72 来拼场。
第六,AMD执行长苏姿丰推出一个训练跟推理的市场预测,看起来未来几年Ai推理市场的成长将远远高于训练的市场(请看留言贴图),这似乎是AMD跟Nvidia的主战场,因为AMD GPU在训练方面明显落后于Nvidia,AMD也说新产品要持续改进在训练方面的不足。
第七,AMD新推出 Rocm 7 and Rocm enterprise ai and Rocm on client,公司期望能改善其在软体发展的落后。
第八,苏姿丰找了xAI、meta,、Oracle,、沙乌地阿拉伯的Humain、Microsoft、cohere、Red hat、Astera Labs、Marvell、Open AI 来背书,表示这些都是AMD 押注的客户。
第九,至于机柜内 Scale up 的 GPU 连结,AMD是采用 Ultra Accelerator Link (vs. Nvidia's NVLink 5.0, 900Gbps per port with 18 ports per GPU,可连接576 GPUs) ,其支援最高到800Gbps per port with multiple ports per GPU,最多可连接 1024 GPUs,而在CPU的使用,管理软体,都是采开放标准。

第十,机柜跟机柜 GPU Scale out NIC 的连结,AMD 是采用 Ultra Ethernet consortium UEC (vs. Nvidia's InfiniBand)标准, 可支援到超过1mn GPUs 的连接, 透过AMD的 Pollara 400 NIC 产品。
第十一,AMD除了今年要推出Turin server CPU, MI350/355X GPU, Pollara 400 NIC之外,2026明年要推出Helios 机柜(对标Nvidia Vera Rubin NVL 144 的Oberon机柜,配36 Vera CPU+288GB HBM4的72颗 Rubin GPUs, 144 Rubin GPU dies)。其中,包括 18颗台积电2nm/256核心的Venice server CPU, 72颗 配432GB HBM4的MI400 GPU(没说2 or 3nm), 还有3nm/800Gbps 的 Pensando Vulcano NIC。
陆行之指出,AMD认为其在HBM4 memory capacity, Memory bandwidth, Scale out Bandwidth 都胜出50%(很难说Nvidia明年推出 Rubin GPU 会不会突然加码HBM的容量)。2027年要推出下世代机柜配备Verano CPU, MI500 GPU, NIC不变,对标Nvidia's Vera Rubin Ultra NVL 576 机柜,配72 Vera CPUs+ 144 Rubin Ultra GPUs, or 576 Rubin Ultra GPU dies。
