欢迎访问深圳市中小企业公共服务平台电子信息窗口

美光正式送样业界高容量 SOCAMM2 模组,满足 AI 数据中心对低功耗 DRAM 的需求

2025-10-23 来源:爱集微
83

关键词: 美光科技 SOCAMM2 低功耗内存 AI数据中心

在当今时代,人工智能(AI)实现了前所未有的创新和发展,整个数据中心生态系统正在向更节能的基础设施转型,以支持可持续增长。随着内存在 AI 系统中逐渐发挥越来越重要的作用,低功耗内存解决方案已成为这一转型的核心。美光科技股份有限公司(纳斯达克股票代码:MU)近日宣布其 192GB SOCAMM2(small outline compression attached memory modules,小型压缩附加内存模块)已正式送样,以积极拓展低功耗内存在 AI 数据中心的广泛应用。2025 年 3 月,美光发布了业界首款 LPDRAM SOCAMM,而新一代 SOCAMM2 则在此基础上实现了功能的进一步拓展,在相同的规格尺寸中实现 50% 的容量提升,增加的容量可以将实时推理工作负载中首个 token 生成时间(TTFT)显著缩短 80% 以上 。192GB SOCAMM2 采用美光领先的 1-gamma DRAM 制程技术,能效提高 20% 以上 ,有助于实现大型数据中心集群的电源设计优化。这一能效提升在全机架 AI 安装中尤为显著,可配置超过 40TB 的 CPU 附加低功耗 DRAM 主存储 。SOCAMM2 的模块化设计提升了可维护性,并为未来的容量扩展奠定了基础。

基于与 NVIDIA 的五年合作,美光率先将低功耗服务器内存引入数据中心使用。SOCAMM2 为 AI 系统的主存储带来了 LPDDR5X 超低功耗和高带宽的内在优势。SOCAMM2 的设计旨在满足大规模 AI 平台不断扩展的需求,提供 AI 工作负载所需的高数据吞吐量,同时实现新的能效水平,并为 AI 训练和推理系统设定新标准。这些优势的结合将使 SOCAMM2 成为未来几年业界领先 AI 平台的关键内存解决方案。

美光资深副总裁暨云端内存事业部总经理 Raj Narasimhan 表示:“随着 AI 工作负载变得更加复杂而严苛,数据中心服务器必须提升效率,为每瓦特的功率提供更多 tokens。凭借在低功耗 DRAM领域公认的领先地位,美光能确保我们的 SOCAMM2 模块提供所需的数据吞吐量、能效、容量和数据中心级别的品质,这些对于驱动下一代 AI 数据中心服务器至关重要。”

通过专门的设计功能和增强测试,美光 SOCAMM2 产品从最初为手机设计的低功耗 DRAM 升级为数据中心级解决方案。多年来,美光在高质量数据中心 DDR 内存方面的丰富经验,使 SOCAMM2 具备满足数据中心高标准应用所需的质量与可靠性。

与同等能效的 RDIMM 相比,SOCAMM2 模块的能效提高了三分之二以上 ,同时将其性能封装到三分之一大小的模块中 ,不仅优化了数据中心占地面积,还最大限度地提高了容量和带宽。SOCAMM 的模块化设计和创新的堆叠技术提高了可维护性,并有助于液冷服务器的设计。

美光一直是 JEDEC SOCAMM2 规范制定的积极参与者,并与行业合作伙伴密切合作,共同推动标准演进,加快 AI 数据中心的低功耗应用,以助力整个行业的能效提升。目前,SOCAMM2 样品已送样客户,单一模组容量高达 192GB,速率达 9.6 Gbps,后续量产作业将配合客户的产品推出日程规划。