美光表示,SOCAMM2 进一步升级先前发表的 LPDRAM SOCAMM(small outline compression attached memory modules)记忆体模组,在同尺寸下容量提升 50%,并能缩短推论首个 token 生成时间(TTFT)逾 80%。该模组搭载美光最先进的 1γ (1-gamma) DRAM 制程,使能源效率提升 20% 以上,并有助于大型资料中心丛集的电力配置最佳化。在全机柜式 AI 部署环境中,可支援超过 40TB 的 CPU 直连低功耗 DRAM 主记忆体,具显著节能效益。模组化设计也提升维修便利性,利于未来容量扩展。
美光已与NVIDIA合作五年,率先将低功耗伺服器记忆体导入资料中心。SOCAMM2 将 LPDDR5X 低功耗与高频宽特性引入 AI 系统主记忆体,旨在满足大型 AI 平台不断演进的需求,在提高资料传输量同时实现能源效率跃升,为 AI 训练与推论树立新标准。
美光资深副总裁暨云端记忆体事业部总经理Raj Narasimhan指出,AI工作负载更繁重,资料中心伺服器需在「每瓦功耗产生更多tokens」,美光在低功耗DRAM的领导地位可确保SOCAMM2具备高资料传输量、节能与大容量优势,并符合资料中心级品质要求。
透过强化设计特性与测试规格,SOCAMM2将原为手机打造的低功耗DRAM升级为资料中心级解决方案。美光强调,公司在高品质资料中心DDR记忆体上深耕多年,有助产品满足云端客户对可靠度与稳定性的严格需求。
相较同级RDIMM,SOCAMM2能源效率提升逾三分之二,体积则缩至三分之一,提升资料中心空间利用率,最大化容量与频宽,亦利于液冷伺服器设计。美光表示,SOCAMM采用创新堆叠与模组化技术,提高维修弹性并可支持未来升级。
美光亦积极参与 JEDEC SOCAMM2 规范制定,并与业界合作推动低功耗记忆体标准,期望加速其在 AI 资料中心的采用,以提升整体能源效率。SOCAMM2 目前已送样,单模组容量达192GB、速度9.6Gbps,量产将依客户产品上市时程规划。
點擊閱讀下一則新聞