欢迎访问深圳市中小企业公共服务平台电子信息窗口
权威机构预测:AI服务器需求仍旧很大,产业链继续受益
2024-02-28 来源:贤集网
2991

关键词: 人工智能 AMD HBM

根据TrendForce集邦咨询最新预估,以2024年全球主要云端服务业者(CSP)对高端AI 服务器(包含搭载NVIDIA、AMD或其他高端ASIC芯片等)需求量观察,预估美系四大CSP业者包括Microsoft、Google、AWS、Meta各家占全球需求比重分别达20.2%、16.6%、16%及10.8%,合计将超过6成,居于全球领先位置。其中,又以搭载NVIDIA GPU的AI 服务器机种占大宗。


受国际形势变化影响,NVIDIA后续发展仍有挑战

NVIDIA近期整体营收来源以数据中心业务为关键,主因其GPU服务器占整体AI市场比重高达6——7成,只是后续仍须留意三大状况,可能使NVIDIA发展受限。其一,受国际形势变化影响,中国将更致力于AI芯片自主化。而NVIDIA推出的H20等中国特规方案,性价比可能不及既有的H100或H800等,中国客户采用度可能较先前保守,进一步影响NVIDIA市占率。



其二,在具规模及成本考量下,美系大型CSP业者除Google、AWS外,Microsoft、Meta等亦有逐年扩大采自研ASIC趋势。其三,来自AMD的同业竞争,AMD采高性价比策略,对标NVIDIA同级品,AMD提供仅60——70%价格,甚至代表性或具规模客户能以更低价策略方式抢进市场,预期2024年尤以Microsoft为最积极采纳AMD高端GPU MI300方案业者。


云端需求爆发

AI云端算力占主要需求,未来边缘侧AI算力需求也有望高增长。云端是指利用数据中心的强大算力,对海量数据进行大模型训练和推理;边缘侧是在终端设备上利用训练好的模型进行推理,进而开发丰富多样的应用类型。GPT-4多模态大模型在各种专业和学术基准上已具备与人类水平相当表,未来有望赋能垂直应用,包括但不限于自然语言生成、图像生成、视频生成、音乐生成、艺术创作等领域。Stability AI CEO表示,随着GPU和算力的提升,其开发的Stable Disffusion多模态大模型可能一年之内就能在智能手机上运行,未来新技术也将在更多低价的设备上进行训练,AI推动的创意快速涌现。

互联网云厂商是目前AI云端算力的主要需求方。OpenAI使用多个云计算提供商的服务来支持GPT的训练和推理,包括亚马逊AWS、谷歌云、微软Azure和IBM云(根据ChatGPT回答)。Trendforce预估2022年搭载GPGPU的AI 服务器年出货量约13万台,占整体服务器采购量的1%。其中,互联网大厂是核心采购来源方。

我们认为未来AI算力领域未来呈现三点发展趋势:(1)需求端:从GPT-4仅5个月内就实现对GPT-3.5的迭代并推广上市来看,我们认为图片和视频类AIGC应用的成熟节奏在加快,将推动算力加速升级。(2)供给端:算力升级背后是更高的硬件资本支出,未来HBM/存算一体等新技术有望降低算力成本,伴随而来的是新市场的高速增长,例如美光预计全球HBM市场有望从2021年10亿美元提升至2025年70亿美元;(3)除云端算力外,我们认为AI将带来消费类硬件终端的投资机会,建议重点关注算力芯片、射频通信芯片、摄像头等功能芯片,以及PCB、电子元器件和功能件等。


最终赢家还得是HBM

AI服务器通常采用异构形式,依据所搭载的芯片类型,可以分为CPU+GPU、CPU+FPGA、CPU+ASIC等多种组合。

目前,GPU仍然是数据中心加速的首选方案,但其他非GPU芯片的应用也在逐渐增多。

据IDC预测,到2025年,其他非GPU芯片的占比将超过20%,显示出多样化的芯片应用趋势。

在性能上,ASIC(专用集成电路)通常表现出色,但其可编程性和灵活性相对较弱。因此,在训练或通用场景下,GPU往往成为更合适的选择。



ASIC与FPGA相比,在量产后成本较低且性能优异,但缺乏FPGA的可编程特性,这意味着其灵活调整的空间较小。同时,ASIC的一次性开发成本也相对较高。随着人工智能产业生态的逐步完善,作为全定制化芯片的ASIC有望迎来更广阔的发展空间。

FPGA具备快速、低功耗、灵活和高效的优点。硬件可编程的特性使得FPGA在AI训练中既能提供充足的算力,又具有灵活性,可以重新编程以适应不同任务的需要。

传统的GPU(图形处理器)最初的设计目的是进行图形渲染计算,随着人工智能计算需求的不断增长,GPGPU(通用计算GPU)应运而生。GPGPU通过移除GPU的图形显示部分,将其余的计算资源全部用于通用计算,从而在AI、数据分析以及高性能计算(HPC)等领域得到了广泛应用。

通用GPU在硬件加速能力方面具有显著优势,尤其在深度学习训练方面表现出色,因此成为了目前主流的AI硬件产品。

在市场上,英伟达的A100和H100、AMD的MI250、寒武纪的思元系列以及华为的昇腾系列等产品占据了较大的市场份额。

从AI服务器的产业链角度来看,AI服务器的核心组件包括GPU、DRAM(动态随机存取存储器)、SSD(固态硬盘)和RAID卡、CPU(中央处理器)、网卡、PCB(印刷电路板)、高速互联芯片(板内)以及散热模组等。

随着GPU算力需求的不断提升,对硬件的传输速率也提出了更为严苛的要求。从PCB(印刷电路板)的角度来看,这一趋势将显著推动高频高速板、HDI(高密度互连)以及ABF载板的需求增长。同时,为了满足更高的传输效率,还需要配套损耗更低的CCL(覆铜板),这无疑对PCB及其上游材料供应端产生了显著的促进作用。

此外,AI服务器出货量的持续增长也催生了HBM(高带宽内存)需求的爆发。

HBM凭借其高带宽、低功耗以及小体积等独特优势,在AI服务器场景中得到了广泛应用。

HBM主要应用于高性能服务器领域,其最早落地于2016年的NVP100 GPU(采用HBM2技术)。随后,在2017年的V100、2020年的A100以及2022年的H100中,HBM2和更先进的HBM2e/HBM3技术得到了应用。而最新一代的HBM3e技术则搭载于英伟达2023年发布的H200中,为服务器提供了更快的数据处理速度和更高的内存容量。