欢迎访问深圳市中小企业公共服务平台电子信息窗口
要想“拿捏”AI芯片,HBM很关键,企业巨头之间开战
2024-04-25 来源:贤集网
494

关键词: 人工智能 芯片 半导体

随着AI半导体竞争不断加剧,芯片代工产业因需求停滞和产能过剩,面临新挑战。AI关键的高带宽内存(HBM),也陷入主导地位争夺战。

韩媒Business Korea报道,三星已将泰勒厂运营时间从2024年底延至到2026年,可能考虑到代工市场而调整投资速度。今年全球芯片代工产业前景,台积电总裁魏哲家表示,今年全球芯片代工产业增长从上次说明会20%,下修至14%-19%。



此外,EUV曝光设备市场需求也暴跌,从去年第四季的56亿欧元降至今年第一季的6.56亿欧元,降幅达88.4%。也因此,在需求降低的状况下,明年新厂将激活,也使人们担心产能过剩问题。

目前台积电在美国亚利桑那州的两座厂将分别于2025、2028年投产;日本熊本厂已于2月开业,第二间工厂将于2027年前投产。至于英特尔则计划在美国、欧洲和以色列各地创建新的代工厂。

对AI半导体相当重要的HBM市场,三星与“SK海力士与台积电联盟”竞争逐渐加剧。目前三星电子2月成功开发业界首款最高容量的12层HBM3E,试图重新夺回市场主导地位,第二季连同8层产品一起供货英伟达(Nvidia),下一步目标是推出16层HBM4。


HBM:不惜一切为带宽

考虑到现代类型内存的性能规格和功能,HBM 在带宽需求大的应用程序中如此受欢迎的原因显而易见。每个堆栈的速度约为 1.2 TB/s,任何传统内存都无法在带宽方面击败 HBM3E。但这种带宽是有代价的,并且在容量和成本方面存在一些限制。

人工智能工程联盟MLCommons的执行董事 David Kanter 表示:“HBM 不仅具有优越的带宽,而且还具有功耗,因为距离很短。” “主要弱点是它需要先进的封装,目前限制了供应并增加了成本。“但 HBM 几乎肯定会永远占有一席之地。”

HBM 的这些特性使得 DDR、GDDR 和 LPDDR 类型的内存也用于许多需要带宽的应用,包括 AI、HPC、图形和工作站。美光表示,这些容量优化和带宽优化类型内存的开发正在迅速进行,因此人工智能硬件开发人员对它们有明确的需求。

美光计算和网络业务部高级经理 Krishna Yalamanchi 表示:“HBM 是一项非常有前途的技术,其市场未来增长潜力巨大。” “目前应用主要集中在人工智能、高性能计算等需要高带宽、高密度、低功耗的领域。随着越来越多的处理器和平台采用它,该市场预计将快速增长。”

有分析人士指出,自 2012 年以来,训练模型以每年 10 倍的速度增长,而且看起来[增长]并没有放缓。”

特别有趣的是,那些需要 HBM 的公司往往会在一夜之间采用该标准的最新版本。

为此Gartner预测,高带宽内存的需求预计将从 2022 年的 1.23 亿 GB 激增至 2027 年的 9.72 亿 GB,这意味着 HBM 位需求预计将从 2022 年占 DRAM 整体的 0.5% 增加到 2027 年的 1.6%这一激增归因于标准 AI 和生成 AI 应用中对 HBM 的需求不断升级。



Gartner分析师认为,HBM收入将从2022年的11亿美元增至2027年的52亿美元,而HBM价格相对2022年的水平将下降40%。Gartner指出,由于技术进步和内存制造商的承诺不断增加,HBM 堆栈的密度也将增加,从 2022 年的 16 GB 增加到 2027 年的 48 GB。与此同时,美光似乎更为乐观,预计在 2026 年左右推出 64 GB HBMNext (HBM4) 堆栈。HBM3 和 HBM4 规范允许构建 16-Hi 堆栈,因此可以使用 16 个 32-Gb 器件构建 64 GB HBM 模块,但这将要求内存制造商缩短内存 IC 之间的距离,其中包括使用新的生产技术。

鉴于 Nvidia 占据了计算 GPU 市场的最大份额,该公司很可能成为业界最大的 HBM 内存消费者,并且这种情况将持续一段时间。

但我们也不得不承认,HBM难度极大。


HBM供不应求,海力士、三星积极扩产

如今AI领域发展得如火如荼,HBM的市场规模也随之水涨船高。

据悉,当下主流AI训练芯片均使用HBM,一颗GPU配多颗HBM。其中,英伟达1颗H100配5颗HBM3、容量80GB,H200使用6颗HBM3E(全球首颗使用HBM3E的GPU)、容量达144GB。

3月18日,英伟达宣告称,公司的B100和B200使用192GB(8个24GB8层HBM3E),HBM用量进一步提升。

此外,超威半导体(AMD.US)的MI300系列、谷歌的TPU系列均使用HBM。

在具体的市场规模方面,据了解,在AI没有爆发之前,市场预测全球HBM将平稳增长至一个100亿美元的市场。

而根据新的测算,2023年HBM市场规模为40亿美元,预计2024年增长至150亿美元,到2026年增长至接近250亿美元,年复合增速高达80%以上。

值得注意的是,于2023年11月,海力士CEO称,预计到2030年,海力士每年HBM出货量将达到1亿颗,隐含产值规模将接近300亿美元,假设届时海力士市场份额为50%,则整个市场空间将在500亿美元左右。

在竞争格局方面,HBM的供应由SK海力士、三星电子和美光科技(MU.US)三大厂商垄断,2022年三者的份额分别为50%、40%、10%。

其中,SK海力士是HBM先驱,HBM3全球领先,与英伟达强绑定、是英伟达主要HBM供应商,三星电子紧随其后,美光科技则正在积极追赶中,HBM3E进度直逼SK海力士。

目前,当下的HBM市场处于供不应求状态。

而三家大厂垄断市场,彼此之间的竞争也比较激烈。其中,SK海力士和三星电子均计划在2024年将HBM产能提升2倍以上。

另外,SK海力士已在今年3月宣布开始量产8层HBM3E,3月底开始发货;美光科技则跳过HBM3直接做HBM3E,已于2月底宣布量产8层HBM3E;三星电子则在今年2月底发布12层HBM3E。



需要指出的是,近两年芯片领域一片“寒意”,SK海力士、三星电子和美光科技一度遭遇业绩暴降,甚至出现巨亏的情况。

据美光科技披露了2024财年第二财季(截至2月29日)的业绩显示,在美国公认会计准则下(GAAP),期内美光科技实现营收58.24亿美元,同比增长57.70%;净利润为7.93亿美元,同比、环比均实现扭亏;摊薄后每股收益为0.71美元;非公认会计准则净收益为4.76亿美元,摊薄后每股收益0.42美元。

美光科技CEO认为,在AI带来的机遇中,美光是半导体行业最大的受益者之一。

之所以这么说,是因为美光科技于今年2月26日宣布开始量产HBM3E高带宽内存(第五代HBM,是市场针对AI应用的最高规格DRAM产品)。

在第二财季电话会上,美光科技披露,公司新品HBM3E芯片今年的产能已全部卖光,明年的大部分产能也已经被预定。

而HBM3E将供给英伟达(NVDA.US)的AI芯片H200GPU。

美光科技还预计,2024财年,HBM系列产品将为公司带来数亿美元的营收,甚至有望比肩公司第二大业务—NAND业务。

美光科技的情况如此,SK海力士和三星电子也都受益于HBM产品的爆发。


工艺、设备、材料国内厂商不断导入,国产自主可控进程加速

半导体先进封装尤其是HBM CoWoS封装核心增量来自Bumping、TSV、RDL等工艺,增量需求最大的设备主要为检/量测、减薄、电镀、键合、模塑机台,并且先进封装也为激光切割机、固晶机、回流炉、后道测试机/分选机/探针台等传统封装设备带来一定需求提升。

用于高端先进封装的设备份额主要为海外厂商占据,例如先进封装检/量测领域的Camtek、ONTO;减薄领域的DISCO;电镀领域的AMAT、ASMPT;键合领域的SUSS、EVG Group;塑封领域的TOWA、YAMADA等;芯片贴装领域的BESI等。由于AI等领域需求旺盛,Camtek、BESI、SUSS等厂商面向先进封装如HBM和异构集成、AI应用的订单均创下历史新高,并仍在持续增长;

用于高端先进封装的材料品类繁多,且更为分散,主要包括IC封装载板、ABF基板层介电材料、制造封装基板核心层材料、环氧树脂固态封装材料、导线架、焊线材、底部填充剂等,市场份额大多被美国、日本、德国厂商占据,核心供应商包括日本住友化学、日本昭和电工、美国杜邦等。

AI对GPU高带宽需求将催生HBM将近百亿美金市场,以HBM为代表的先进封装封测技术、设备和材料等需求有望持续提升。据前文预计,到2024年HBM有望营收至89亿美元。以HBM为代表的先进封装市场对封测技术、先进封装设备及材料需求持续增长,同时国内先进封装封测、设备、材料等产业链有望持续受益,国内厂商在相关领域不断导入。