“HBM之父”:“内存中心计算”时代来临,GPU或成配角
在人工智能(AI)领域,一场深刻的架构革命正在酝酿。长期以来,以英伟达(NVIDIA)图形处理器(GPU)为核心的计算体系被视为AI发展的引擎。
近日,被誉为“HBM(高带宽内存)之父”的韩国科学技术院(KAIST)教授金正浩预言,这一格局即将发生根本性转变,未来十年,半导体产业的核心将从计算单元彻底转向内存,一个“内存中心计算”(Memory-Centric Computing, MCC)的新时代正在到来。
金正浩指出,当前我们正处于GPU主导一切的时代,但这一局面正面临根本性挑战。随着AI技术从执行单一指令的“生成式AI”向能够自主判断、规划并生成完整报告的“AI智能体”演进,数据处理的需求模式发生了质变。
“AI已经从只执行指令,发展到能够自主判断并生成完整报告。伴随而来的,是一次性处理海量文档和视频的‘上下文工程’。”金正浩解释道。这种演进要求系统具备前所未有的数据处理能力,内存的带宽和容量需要提升到现有水平的千倍,才能满足AI智能体对海量信息的实时存取和分析需求。
更关键的是,金正浩认为当前AI模型备受诟病的“幻觉问题”,其根源也在于内存限制。当内存不足以支撑模型调用足够多的相关信息时,系统只能基于有限的已有信息进行拼凑,从而产生错误答案。因此,要实现真正可靠、具备强大记忆能力的智能体,突破内存瓶颈是关键。
为应对这一挑战,金正浩提出了一个由HBM和HBF(高带宽闪存)共同构成的层级化内存架构。在他看来,当前主导AI加速器市场的HBM,通过堆叠DRAM(动态随机存取存储器)实现高速数据传输,扮演着“短期记忆”的角色。“HBM就像手边的参考书,用于快速响应。”
然而,仅有“短期记忆”远远不够。金正浩将HBF比作一个庞大的“图书馆”,它由NAND闪存堆叠而成,代表着“长期记忆”。只有引入类似HBF的层级结构,AI才能在全球数据中进行检索,并给出完整、准确的答案。HBF的出现,将有效弥补HBM在容量上的不足,为AI智能体提供近乎无限的“知识库”。
这一技术路线的演进,预示着半导体产业权力结构的深刻变革。过去,GPU和CPU是计算架构的绝对核心,而内存则是为其服务的配套组件。但在“内存中心计算”时代,HBM和HBF将成为核心,GPU和CPU反而可能成为其中的组成部分,扮演“配角”。
围绕这一未来方向,全球存储巨头已经展开激烈竞争。SK海力士已与闪迪(SanDisk)联手推动HBF的标准化,试图抢占生态主导权。三星电子则在推进下一代HBM4E的同时,也加大了对NAND架构的投入。金正浩认为,这场竞争与HBM早期发展阶段高度相似,提前投入并掌握核心技术的企业将赢得未来。他特别强调,未来十年的胜负将由HBM和HBF共同决定,而真正决定最终格局的,将是HBF。
金正浩预计,HBF的工程样品将在2027年前后出现,最早到2028年,谷歌、英伟达或AMD中的一家将率先导入这一技术。届时,计算架构的根本性转移将拉开序幕。谁能率先构建起以HBM和HBF为核心的“内存中心计算”体系,谁就将主导AI时代的下一阶段。而马斯克计划建设涵盖封装、内存和晶圆制造的大型工厂,也被金正浩视为对这一趋势的精准判断。