欢迎访问深圳市中小企业公共服务平台电子信息窗口
AI淘金热未至 铲子先热卖 NVIDIA H100为何身价不凡?
2023-08-28 来源:科技网
303

关键词: 人工智能 英伟达 台积电

NVIDIA H100从2022年9月量产投入市场,至今供不应求


2023年科技产业备受关注的人物与企业,莫非NVIDIA与其执行长黄仁勳莫属。2月间,黄仁勳宣称“AI的iPhone时刻”已经到来,半年之后,外界用连续2季的财报业绩检视NVIDIA,NVIDIA也在抱回外界难以想像的获利。


NVIDIA公布的2024会计年度第2季(2QFY24)财报数据,揭示营收年增101%、淨利年增422%、毛利率高达71.2%的炸裂式业绩,各项指标均远超预期,而H100系列晶片在AI热潮推动的大型语言模型训练(LLM)市场中一卡难求。


AI算力需求呈现爆炸式成长,对云端业者而言,只能不断採购AI伺服器;然对于LLM开发厂商来说,NVIDIA的资料中心业务疯狂吸金,而客户却还未实现获利。眼前LLM大浪未至,钱却都被NVIDIA赚走了。


在财报公布前,NVIDIA高阶AI GPU不断传出涨价声,Barrron's引述分析师报告,H100制造成本为3,320美元,而售价则高达2.5万~3万美元,利润接近成本的10倍;毛利率超过70%,对晶片产品而言,有些不可思议。


对此黄仁勳强调,NVIDIA提供的是软体生态系统和硬体平台,具备软体生态架构的灵活性、多功能性,再加上广大的安装基础及涵盖范围,程式码数量和应用程式组合的类型相当疯狂,简单说,卖的是“准系统”而非“单一晶片”,但NVIDIA花了20年才走到这一步。


外界分析,NVIDIA构建的CUDA软体生态,不仅让旗下GPU受青睐,也是客户无法轻易转向超微(AMD)等竞争对手的主因。原因在于,AI算力的配置绝非简单的硬体堆叠,即便把重达30多公斤、多达3.5万个零件组成的NVIDIA HGX平台层层堆起来,也堆不出LLM必须的AI算力。


要把1,000张加速卡、100台AI伺服器放在一起,跑同一个LM训练或推论任务,还需要大量的配套软体、通讯网路,还不包括客户的大量数据。这是一系列软硬体联合调用的複杂过程,黄仁勳把H100这类AI GPU称为“技术奇蹟”,并非没有原因。


H100从2022年9月量产投入市场,至今供不应求,甚至上一代的A100至今仍是抢手货。NVIDIA聚焦于系统级伺服器产品,最新款DGX产品GH200集结256块H100和Grace CPU,预料会在2023年下半量产后将跃居业绩新推手。 


至于H100为何价格高昂?在硬体层面上,H100採用了四大先进技术。第一是台积电4奈米制程(N4),要让这一颗长26.8公分、宽11.1公分、含有800亿个电晶体的H100发挥前所未有的效能,举世当今非台积电代工莫属。


第二是连接技术,每张H100包含3个NVLink连接,这是NVIDIA独家的资料传输技术,第四代NVlink可提供每秒900GB的GPU对GPU互连频宽,以便将更多H100互连使用,获得倍增的效能。


第三是80GB的HBM2e高频宽记忆体,目前仅SK海力士(SK Hynix)、三星电子(Samsung Electroics)可供应,值得注意的是,NVIDIA刚刚宣布将最新的HBM3e植入最新GH200,是全球第一个支援HBM3e的GPU产品。


第四是台积电的CoWoS封装技术,台积电正积极扩建CoWoS产能,但供不应求情况恐将持续到2024年。


这四大技术每一项均属尖端领域,付出代价所费不赀,如果说LLM推动AI GPU加速运算时代来临,但让NVIDIA站在当前科技舞台上独舞的关键,却是黄仁勳领导团队的长期押注与心血累积。