高通推出AI晶片与机柜,试图挑战已经在AI资料中心占据重要地位的公司,包括辉达、AMD、博通等,让公司股价27日大涨21.9%。高通还指出,AI200首位客户是沙乌地阿拉伯AI新创公司Humain,预计在2026年为其建立200MW的算力。
高通说明,Qualcomm AI200 采机柜级架构设计,锁定大型语言与多模态模型(LLM、LMM)推论与其他 AI 工作负载,主打低总持有成本(TCO)与最适化效能。每张加速卡支援 768GB LPDDR,兼具更高记忆体容量与成本优势,能灵活支援企业因应模型规模成长所需的快速扩展。
Qualcomm AI250则引入以近记忆体运算(near-memory computing)为核心的创新记忆体架构,能提供超过 10 倍有效记忆体频宽,同时大幅降低功耗,在 AI 推论效能与能效上实现世代跃进。加上支援解耦式推论(disaggregated AI inferencing)模式,协助企业最大化硬体资源使用效率,并平衡效能与成本需求。
两款 AI 机柜均搭载直接液冷技术以提升散热效率,并支援 PCIe 向上扩展与乙太网路向外扩展,整柜耗电量为 160kW,同时加入机密运算(confidential computing)强化资料安全,使企业得以在不同规模的资料中心部署安全可信的推论服务。
高通技术规划、边缘解决方案与资料中心业务资深副总裁暨总经理 Durga Malladi 表示,AI200 与 AI250 正在重新定义机柜级 AI 推论的可能性,让企业以更具成本竞争力的方式部署生成式 AI,并兼具现代资料中心需要的弹性与安全。
高通强调,透过完整软体堆叠与开放生态系统支援,使开发者与企业能更轻松整合、管理并扩展既有训练模型。借由与主流 AI 框架的无缝相容与一键部署能力,AI200 与 AI250 可协助客户加速落地创新应用。
高通同时强化资料中心端的 AI 软体堆叠,从应用层到系统层皆最佳化推论效能,并支援主要机器学习框架、推论引擎与生成式 AI 模型。此外,透过 Qualcomm Efficient Transformers Library 与 Qualcomm AI Inference Suite,开发者可快速导入 Hugging Face 模型并一键部署,并结合多项现成 AI 应用、智能代理、工具、函式库与 API,加速企业营运面的 AI 落地。
Qualcomm AI200 与 AI250 分别预计于 2026 与 2027 年商用上市。高通强调,未来将持续以年度节奏推出资料中心 AI 产品,聚焦业界领先的推论效能、能源效率与 TCO 表现,全力抢攻快速成长的 AI 资料中心市场。
點擊閱讀下一則新聞