欢迎访问深圳市中小企业公共服务平台电子信息窗口
三星利润跌至14年来最低水平,而SK海力士却踩中了这一风口
2023-07-11 来源:贤集网
363

关键词: 存储芯片 半导体 三星电子

三星电子预计,尽管减产,但由于供应过剩,存储芯片价格继续下跌,其第二季度营业利润预计暴跌96%,至14年来的最低水平。

据金融时报7月7日报道,随着三星与竞争对手一起削减芯片供应,价格下降速度已经放缓。分析师预计芯片价格将在本季度触底,并在明年复苏。

高盛分析师GiuniLee在一份报告中表示:“我们认为半导体业务最严重的季度亏损是在2023年第一季度。”他预测三星芯片部门将在第四季度实现小幅盈利。

由于行业复苏的预期,三星股价今年迄今已上涨近30%,但周五上午下跌2%。该公司将于本月公布详细的第二季度业绩。

在美国竞争对手美光科技(Micron Technology)对截至6月1日的三个月做出乐观预测,公布了初步收益,这再次表明供应过剩正在缓解。美光上周表示,最糟糕的时期已经过去,而SK海力士高管也预计今年将在人工智能需求的推动下复苏。



三星加大AI用DRAM产量

三星是全球最大的微芯片、智能手机和电视制造商之一,预计4月至6月季度的营业利润将从一年前的14.1万亿韩元降至约6000亿韩元(合4.6亿美元)。这略好于Refinitiv Smart Estimate预测的5550亿韩元。销售额下降22%,至60万亿韩元左右。

大幅下跌的主要原因是其芯片部门。市场研究公司TrendForce表示,随着客户处理过剩库存,智能手机、个人电脑和服务器中使用的DRAM芯片的价格预计在第二季度下跌18%后,本季度将下跌5%。

KBSecurities分析师KimDong-won表示:“三星的DRAM出货量超出了之前的预期,而且芯片库存正在快速下降,因此我们预计其成本结构将迅速改善。”

面对长期的行业低迷,三星正试图利用蓬勃发展的人工智能市场。据高盛称,支持人工智能的服务器需要至少四到六倍的DRAM容量,三星正在努力提高这些芯片的产量。

三星负责半导体业务的高管KyungKye-hyun本周告诉员工,该公司在人工智能中使用的高带宽存储芯片的份额超过了快速增长市场的50%。

但IBK Investment&Securities分析师KimUn-ho警告说,库存过剩可能会减缓该行业的复苏。人工智能芯片的需求将继续增加,但我们继续看到个人电脑和智能手机的需求下降。Kim补充说,今年芯片价格反弹需要大幅减产。

三星正在扩大其合同制造能力——为其他公司生产芯片——以赶上更大的竞争对手台积电。三星计划到2025年推出尖端的2纳米移动芯片生产技术。


存储芯片还得跌

根据《日经中文网》的消息,在半导体行业,虽然有很多观点认为库存水平将在今年的7月份到9月份出现改善。但是目前,个人电脑和智能手机市场缺乏强劲势头,有声音认为“需求本身将持续处于低迷状态”。

根据统计,目前半导体存储芯片市场恢复速度比较缓慢。由于智能手机更换需求低迷等原因,主要存储芯片的价格较1年前下降了超过40%。在2022年4月,8GB的DDR4内存价格在3美元以上,如今已不足1.5美元、256GB的TLC颗粒NAND闪存价格也超过了3美元,如今却一度逼近1.5美元。

而且,因此前的疫情而扩大的个人电脑和平板电脑的需求告一段落,智能手机的更换需求也增长乏力。美国IT大企业抑制数据中心投资也产生影响,供应链各各环节的库存增加。所以,虽然半导体厂商已经加紧压缩产能,但预计消除过剩库存还需要一段时间。



HBM成最紧缺类别

全球科技巨头纷纷向SK海力士预定第五代高带宽内存HBM3E的样品。与此同时,得益于AI服务器对HBM高宽带显存的强劲需求,半导体存储巨头美光也计划将于2024年初开始加速量产,并为后续稀缺的HBM资源计划将HBM产能翻倍!

随着今年来全球AI大模型不断推出,上游算力需求持续井喷。在算力供给紧张下,各种算力紧张的解决方案不断推出,其中HBM高带宽存储器,就成为了最有望解决算力紧张的存储方案。

HBM最大优势就是通过增加带宽,扩展内存容量,让更大的模型、更多的参数留在离核心计算更近的地方,从而减少内存和存储解决方案带来的延迟。

中证报指出,HBM3E是DRAM HBM3的下一代产品。AI GPU需要用到大量HBM(高带宽DRAM),通常是4层、6层、8层DRAM叠在一起,用TSV封装工艺。

在AI GPU趋势下,HBM增速进一步放大,近期海力士HBM价格涨了5倍,成为最紧缺的存储器。目前HBM市场规模约15亿美金,预计到2027年市场规模将达到70亿美金,5年复合增速超40%。

国泰君安指出,高性能计算的高带宽内存(HBM) 今年需求非常强劲,HBM资源供应来源极其有限,年初以来价位虽然较高,但预计23三季度还将继续小幅报涨。

国信证券也表示,AI大模型的数据计算量激增,需要应用并行处理数据的GPU作为核心处理器,而“内存墙”的存在限制了GPU数据处理能力,HBM突破了内存容量与带宽瓶颈,可以为GPU提供更快的并行数据处理速度,打破“内存墙”对算力提升的桎梏,被视为GPU存储单元理想解决方案,将在AI发展中持续收益。