据《巴伦周刊》资深撰稿人Tae Kim在推特上发表一篇推文,Nvidia每销售一台H100GPU加速器,就能获得高达1000%的利润。
以美元计算,Nvidia 每个高性能计算 (HPC) 加速器(最便宜的 PCIe 版本)的市场价格约为25000至30000美元(约合18.3至21.9万元人民币),大概是其每个芯片和外设成本3320美元的10倍。
Tae Kim援引的是金融咨询公司Raymond James数据,H100 GPU的成本为3320 美元。目前尚不清楚成本分析有多深入,可能这是一个纯粹的制造成本问题(在考虑良率的情况下平均每片晶圆和其他组件的价格),那么Nvidia 仍然需要支付大量的费用利润。
此外,产品开发需要时间和资源,考虑到工程师和其他参与 H100 等产品开发生命周期的人员,在得出最终的平均产品开发成本之前,Nvidia 的研发成本也必须考虑在内。
根据Glassdoor的数据,Nvidia电子硬件工程师的平均年薪约为20.2万美元,这还只是一个工程师的年薪,像 H100 这样的芯片开发很可能需要多名专业人员花费数千小时,所有这些都必须考虑在内。
不过,仅从生产成本/ 售价比来看,英伟达H100 GPU就已经算是一个“超级印钞机”了。
更重要的是,Nvidia GPU不愁卖,很快就被各大科技巨头抢购一空了。目前,Nvidia GPU的产品订单似乎已经卖到 2024年了,且预计到2027年,人工智能加速器市场的规模将达到1500亿美元左右。
此前文章指出,仅微软 、Meta等四巨头订单就足以让Nvidia实现本季度的销售目标。伯恩斯坦分析师指出,英伟达将有可能在2024年创造750亿至900亿美元的数据中心和AI芯片收入。
AI芯片已成为重要议题
考虑到人工智能及其所需的先进芯片需要巨额投资和基础设施支持,政府的态度至关重要。
韩国政府计划投资8262亿韩元(约合6.31亿美元),希望到2030年在韩国塑造一个以本土高端人工智能芯片为核心的人工智能生态系统。
“人工智能将对半导体、数据和平台服务乃至安全产生重大影响。” 韩国总统在九月份的一次政府间会议上表示。他说:“政府支持应该起到催化作用,以促进企业投资和创新。”
政府的中心倡议项目命名为“K-Cloud ”。参与者包括人工智能芯片设计公司、云计算公司、学术专家和科学技术部,将花费约1000亿韩元用于到2025年开发用于人工智能数据中心的神经处理单元(NPU)。
K-Cloud 项目旨在建立基于新的NPU的数据中心集群,提供39.9 petaflops的人工智能计算能力,其中公共部门和私营部门分别提供19.95 petaflops。1 petaflop每秒执行一千万亿(即一万亿亿,或10的15次方)次计算。
在第二阶段,该项目计划在2028年基于DRAM技术创建一种低功耗的内存内处理(PIM)芯片。PIM芯片整合了存储和处理功能,以减少延迟并解决冯·诺伊曼瓶颈问题。
最后阶段将在2030年之前,升级基于非易失性存储器和超低能耗的PIM芯片。
根据市场跟踪机构Gartner的预测,全球人工智能芯片市场预计到2026年将达到861亿美元,每年增长16%。
数据中心加入AI热潮
另一个预计从人工智能技术中获益的行业是数据中心。新冠疫情期间,数据中心和云计算的需求增加,生成式人工智能受到广泛关注。公司将需要计算资源来训练自己的大型语言模型,因此预计这一趋势将进一步扩大。
韩国三家移动运营商——SK Telecom、KT和LG Uplus——在全国范围内共拥有31个数据中心,其中18个位于首尔。根据元大证券( Yuanta Securities)的报告,这三家公司占据了总数据中心容量的93%。
“从2028年开始,互联网数据中心市场将转向以供应商为导向的模式。”元大证券分析师Lee Seung-woong表示:“到2030年,数据中心的需求可能会增加1088亿韩元,而同期供应可能仅增加609亿韩元。由于在短期内供应很难超过需求,数据中心可能会在中长期内提升电信公司的盈利能力。”
在韩国国内扩大规模之后,SK Telecom和KT计划将它们的数据中心基础设施出口海外,首选东南亚地区。
上个月,一场介绍其人工智能战略的新闻发布会上,SK Telecom的CEO Ryu Young-sang表示,该公司计划将其数据中心的国内容量增加一倍以上(从1亿韩元增加到2.07亿韩元),并与外国云服务提供商合作,将其基础设施扩展到海外。
KT旗下的云计算子公司KT Cloud于5月从当地私募股权公司IMM Credit & Solutions获得了6000亿韩元的资金,用于扩大其基础设施云和数据中心基础设施。预计到2026年,其年收入将达到2万亿韩元。
在此趋势下,国内芯片企业如何分一杯羹?
异构计算:未来将成为主流的计算方案
异构计算,就是使用不同类型指令集和体系架构的计算单元组成系统的计算方式,通常以“CPU+GPU”为主,目的便是为了使二者相互配合,以达到更好的计算效果。
CPU是智能设备的心脏,主要负责多任务管理、调度,具有很强的通用性,但其更擅长逻辑控制,在面对大规模并行计算任务时表现并不佳。GPU则在图像渲染等涉及大量重复运算的领域拥有更强运算能力,AI领域中用于图像识别的深度学习、用于决策和推理的机器学习以及超级计算都需要大规模的并行计算,大多都采用GPU进行。
随着算力发展,多元化计算需求逐渐增多,算力场景也愈发多样。这也导致CPU或GPU都难以独立满足全场景的算力需求,而CPU+GPU的异构计算模式也为此应运而生。在CPU+GPU异构计算模式中,GPU可作为协处理器负责并行加速计算,CPU可作为控制中心,在复杂场景实现更优性能,在高性能计算、海量数据处理等方面明显更具优势。
可以预见,随着计算产业的演进,CPU+GPU异构计算模式将成为未来的主流方案,拥有广泛的发展与应用空间。
AI PC或为CPU扳回一局
近日,英特尔发布了全新的酷睿Ultra系列处理器,这一创新产品不仅在工艺、设计上取得了重大突破,更为AIPC(AI Personal Computer,人工智能个人计算机)的未来发展带来了新的机遇。
首先,酷睿Ultra系列处理器是英特尔首款基于Intel 4工艺打造的处理器产品。与AMD Ryzen 7 7840U、高通骁龙8cx Gen 3和苹果自研M3芯片等笔记本电脑处理器相比,酷睿Ultra 7 165H芯片的多线程性能提高了11%。这一提升意味着,无论是进行大规模计算任务,还是运行复杂的应用程序,酷睿Ultra系列处理器都能提供更高效、更稳定的性能支持。
在设计层面,酷睿Ultra系列处理器加入了片上AI加速器神经网络处理单元NPU。这一创新设计大幅度提高了设备本地运行AI应用的能效比和本地运行能力。这意味着,无论是进行语音识别、图像识别等AI任务,还是运行各种智能应用,酷睿Ultra系列处理器都能提供强大的计算支持。
随着PC硬件层两大供应商相继发布主打AI能力的CPU产品,未来AIPC的核心硬件基础已经初步奠定。这意味着,未来AIPC将拥有更强大的计算能力和更丰富的AI应用场景。同时,这也为产业链带来了新的机遇,将不断涌现出更多的商业机会和创新应用。
硬件迭代或加速的同时,配套软件生态也有望进一步繁荣。算力和AI应用互促之下,各类设计、研发、编辑软件有望适配更多AI功能。对于个人而言,目前AIPC可以实现高实时性交互场景的AI应用,例如视频会议的实时转录和语音修饰,本地文档信息汇总和摘要,离线场景或小规模AI辅助设计加速等等。而随着AIPC的普及,更多深度适配的应用也将不断涌现并产生价值。