欢迎访问深圳市中小企业公共服务平台电子信息窗口
正面打不过英伟达就换条路走,三星押注的边缘AI芯片前景如何?
2024-05-10 来源:贤集网
502

关键词: 英特尔 三星 人工智能

说到AI芯片,人们第一个想到的可能是高通、联发科、Intel,抑或是英伟达、AMD。另外三个核心玩家则总是在被忽视:苹果、三星和华为,因为它们不专注于芯片而是横跨消费电子、通信、存储、云等业务,但事实上它们的芯片却很强大。

比如三星,就是不容忽视的芯片玩家,它的exynos系列就是跟苹果A系列同级的顶尖芯片。AI芯片,也是三星接下来的重中之重。

在第 55 届年度股东大会上,三星电子宣布进军人工智能处理器市场,将于 2025 年初推出 Mach-1 AI 加速芯片。但不同于英伟达是要攻占全球服务器市场,三星的目标在边缘计算领域,包括手机、PC 等智能设备、自动驾驶机器人以及 IoT 设备。



不难理解。仅从今年 1 月 CES、2 月 MWC、3 月 AWE 三场科技行业大会就能看出,AI 已经开始了大规模对终端产品的「改造」。尽管大部分行业都还处在探索和尝试的阶段,但有一点是无论如何不会改变的:

AI 驱动离不开算力。

算力从哪来?底层无非是芯片。三星推出 Mach-1,就是希望在这个 AI 改造终端的过程中,成为各类终端的主要 AI 芯片供应商,成为边缘计算领域的英伟达。


避英伟达锋芒,三星AI芯片在边缘侧另辟蹊径

三星 Mach-1 会成功吗?这不是一个可以简单回答的问题。

今天对于 AI 的应用正在大规模从云端(数据中心)转向终端(智能设备、自动驾驶汽车等),市场对于面向边缘计算 AI 芯片的需求自然水涨船高,这是三星AI芯片的机会。

然而,英伟达的高性能 GPU 实在是太强大了。在刚刚结束的英伟达GTC 2023上,老黄带来了史上最强的AI芯片加速卡甚至是AI芯片:Blackwell GB200超级芯片系统,这是面向AI大模型时代而生的AI芯片,业界评论称:英伟达掌握了AI时代的摩尔定律,也打破了传统计算的摩尔定律。

不过,英伟达强在云端,“边缘”并不是其擅长的计算场景,它的GPU当然能提供顶级的 AI 加速性能,但尺寸、功耗以及成本都大大限制了它在边缘计算领域的应用范围。英特尔和高通则都采用了混合架构(CPU+GPU+NPU)提供 AI 加速性能,大幅降低了功耗,更大的机会在于边缘侧。

三星 Mach-1 在理论上还能提供更低的功耗和成本。对于低性能的智能家居设备和 IoT 传感器等,Mach-1 比起英伟达、英特尔和高通的解决方案无疑更有价值。

试想一下,总不能为了大模型驱动的 AI 应用,洗衣机也要搭载高通旗舰芯片吧。

不过就算面对手机、笔记本电脑乃至汽车车机等高性能终端,除了功耗上的优势,考虑到低端产品搭载芯片的 AI 算力水准,三星 Mach-1 也同样存在一定的价值。

以AI PC、AI手机、AI家电、AI汽车为代表的AI硬件正在重新定义传统硬件生态,而AI硬件的计算形态一定是“云端融合”,既要云端训练,也要边缘端有一定的AI计算力来支持小模型部署以及终端侧的基础、实时和硬件层训练、推理和生成。因此,边缘侧的AI芯片有巨大的空间,这是三星的机会。



当然,边缘侧AI芯片不能一概而论,有些终端对功耗要求高,有些终端对散热要求高,有些终端对安全要求高,有些终端则对性能要求更高……因此,边缘侧的AI芯片也会形成分化。

简而言之,在高性能 AI 赛道,英伟达占据了顶级的云端生态位,在高性能低功耗 的“边缘侧”“终端侧”AI 赛道(如手机、笔记本电脑),英特尔和高通成为绝世双雄;而三星,则有望拿下低功耗赛道的顶级生态位。当然,头部品牌吃不完全部蛋糕,每一个AI芯片层都将容纳大量的玩家。


边缘计算与终端AI芯片市场稳步增长

随着人工智能、5G和物联网等领域的快速发展,边缘计算和终端AI芯片市场呈现出巨大的增长潜力。边缘计算是一种将计算资源从云端延伸至离用户更近的边缘设备的新兴计算模式,可以提供更低延迟和更高效的数据处理和分析能力。而终端AI芯片作为支撑终端设备智能化的关键技术,具备低功耗和高性能的特点,已成为终端设备实现智能功能的关键驱动力。

据市场研究数据显示,边缘计算服务器市场正呈现稳步增长的态势。市场研究机构TrendForce预测,边缘计算产品和服务市场在2018年至2022年将以复合年增长率超过30%的速度增长,这一增速或有望打开千亿级美元的市场空间。另据市场研究机构Gartner数据,到2025年有75%的数据将产生于边缘,2023年底有50%以上的大型企业将至少部署6个以上的边缘计算应用,主要用于物联网或者沉浸式的边缘计算体验。边缘计算的优势在于将数据处理和存储推至靠近数据源的边缘设备,实现快速响应和实时决策,特别适用于物联网、智能城市、智能制造等领域。

同时,终端AI芯片市场也面临着广阔的发展空间。根据Frost&Sullivan数据显示,2021年全球人工智能芯片市场规模为255亿美元。预计2021-2026年,全球人工智能芯片市场规模将以29.3%的复合增长率增长,2023年将达到490亿美元。终端AI芯片通过将AI计算能力集成到终端设备中,实现设备智能化和边缘计算的优化,为用户提供更快速、更个性化的智能服务。


国产企业大力布局

边缘端AI 芯片主要应用于嵌入式、移动终端等领域,如摄像头、智能手机、边缘服务器、工控设备等,此类芯片一般体积小、耗电低,性能要求略低,一般只需具备一两种AI 能力。

当前应用领域由云端向边缘侧移动,终端催生大量芯片需求。


从功能上来看,AI芯片分为训练芯片和推断芯片两种。由于功耗、算力等条件限制,目前边缘端的AI芯片绝大部分为边缘推断芯片。从技术架构来看,它可分为四大类,分别为通用性芯片(GPU)、半定制化芯片(FPGA)、全定制化芯片(ASIC)。

在边缘计算中,AI芯片会利用传声器阵列、摄像头等传感器采集到的数据按照已构建的模型进行推理并输出相应的结果。

由于边缘计算的应用场景众多,对于硬件的算力、能耗等性能要求也不尽相同,因此催生出对AI芯片更加广泛的需求。

不同边缘场景对AI算力的需求:



国内海思、寒武纪、云天励飞、国芯科技、海光信息等芯片厂商陆续推出高性价比的边缘端AI芯片。

寒武纪“思元”220芯片是专门用于深度学习的边缘加速芯片,采用台积电16nm工艺,具备高算力(32Tops)、低功耗(10W)的特点。

云天励飞DeepEye1000采用22nm工艺,集成双核视觉DSP处理器,内置硬件加速运算子ACC,峰值算力可达2.0Tops,可支持4K@30fps视频、4路高清视频并行的实时分析。


边缘算力前景广阔

伴随AI等场景的发展,数据中心及智能终端数据处理需求持续增长,边缘计算将有效解决算力需求高增带来的数据处理问题。

算力发展的解决方案将是云端和边缘端同时发展,其中边缘端算力的发展更值得期待。目前高算力设备仍占比较低,例如只有不到1%的电脑或主机可以在最低画质下玩《微软飞行模拟器》。而对算力要求更高的元宇宙,如果希望能纳入尽可能多的终端和用户,需要降低对设备配置的要求,云端渲染和视频流是一个必然的思路。

根据IDC预测,实时数据的占比将在未来五年不断增加,到2024年将达到数据产生总量的四分之一左右。实时数据的激增促进了边缘基础设施的发展,也使得边缘计算能力变得越来越重要,人工智能应用也将更加依赖于处在边缘的算力支撑。

到2023年,全球超过50%的新建基础设施将部署在边缘,将近20%用于支撑AI工作负载的服务器将部署在边缘侧。



此外,边缘算力还在供零售/金融/远程连接领域使用的“开箱即用云”、移动连接、通用用户驻地设备(uCPE)、卫星通信(SATCOM)等环节起到重要作用。

总的来说,边缘计算可以按需部署于无线接入云、边缘云或者汇聚云。对于低时延场景,边缘计算需要部署于靠近基站侧的无线接入云甚至终端自身处(如安防摄像头、智能汽车);对于高带宽要求的大流量热点地区,边缘计算可以部署于边缘云;对于海量连接的场景,边缘计算可部署于位置更高一些的汇聚云,以便覆盖更大区域的业务需求。