欢迎访问深圳市中小企业公共服务平台电子信息窗口

WAIC上的燧原:正从万卡,走向十万卡集群

2025-07-31 来源:电子工程专辑 原创文章
99

关键词: 燧原S60 L600 AI应用 智算中心 集群建设

今年WAIC(世界人工智能大会)燧原科技展位相比往年——在产品展示上简单了不少,主打的就是燧原推理卡S60及其应用;刚刚发布的L600训推一体卡也有展示,可惜是以邀请的方式、不向大众开放——所以我们没能拍到L600真容。

不过今年燧原科技参与WAIC给我们的感觉是:AI技术更务实、更落地了,展台工作人员向我们介绍的主要都是燧原芯片和加速卡的各类应用,以及智算中心的建设情况。WAIC期间的“芯节点·新突破——协同创新聚力 加速智算破局”论坛上,燧原科技创始人、董事长、CEO赵立东也谈到,AI芯片企业要想长期可持续发展,需要实现从技术产品闭环到商业化闭环的跨越。

这次我们就通过燧原展位的简单参观,看看更务实和落地的燧原AI产品商业化进度。

▲ 就我们现场看到的,燧原本次展示主要就围绕着燧原S60展开——这是一款去年就已经量产的人工智能训推一体加速卡,基于GCU320。上图中的这款是PCIe 5.0、全高全长双宽规格,TBP约在300W左右。从官网和工作人员的介绍来看,其主力应用场景应当就是AI推理。

燧原科技创始人兼COO张亚林在论坛上回顾说燧原此前“经历了三代四颗芯片的‘芯’路历程:2020年发布第一代产品,完成了千卡集群;2022年发布第二代的训练产品和推理产品;2024年发布第三代产品——燧原S60”。

据说,目前仅燧原S60这一款产品,过去一年就已经实现了“7万卡的落地规模”,“在国内是第一梯队”;“支持超过300个应用场景,包括大语言模型、多模态大模型、搜索广告推荐、传统AI模型等”;“参与建设五大智算集群,支持顶流应用,服务10亿以上规模终端用户”。

展位工作人员特别介绍说,S60对于传统模型和生成式AI大模型的支持都相当好,无论是“对象或图片分类、自然语义理解,还是文本、图片和视频生成”,“应用面很广泛”。他特别强调了大模型推理应用,“比如代码生成——国内很多软件公司的研发工程师就开始用AI来辅助代码生成了”;

“还有AI搜索能替代传统搜索,大模型结合RAG把搜索结果链接中的内容提炼出来,并根据用户提问,生成一些更明确的信息,大幅提升了用户的搜索满意度。”…“从整体上来看,互联网企业都开始用大模型去替代传统业务应用了。”

“燧原S60对主流大模型的支持都很出色。” “像是我们对Stable Diffusion的优化,对更多DiT结构模型的支持;还有基于客户需求去做定制优化。”

▲ 基于燧原S60的一体机也在展会现场做了展示。张亚林在演讲中提到燧原推出了基于S60的DeepSeek一体机系统方案矩阵,覆盖满血版、蒸馏版不同尺寸大模型。

从宣传介绍来看,燧原S60的一体机产品涵盖4卡、8卡、16卡、32卡等不同扩展版本,上图展示的主要是8卡方案(一体机标准版),用于支持中小企业的各类AI应用。上到16卡时,就能支持满血版DeepSeek 671b了;32卡的一体机POD版可用于规模化应用。

顺带一提未在展位现场露真容的L600——燧原在介绍中提到,作为第四代训推一体产品,“历经两年半时间研发,面向训练及推理场景,国内首创原生FP8低精度算力,拥有144GB存储容量、3.6TB/s存储带宽、800GB/s互联带宽”。

基于L600的云燧OGX系列多卡方案,如OGX400实现了单机八卡OAM全互联,1152GB单机存储容量、28.8TB/s单机存储带宽、2.8TB/s单机聚合带宽,单机支持DeepSeek满血版。还有云燧ESL超节点系统单节点最高64卡全带宽互联,采用液冷方案,可实现9216GB单节点存储容量、230TB/s单节点存储带宽、51.2TB/s单节点聚合带宽、单节点可支持PD分离优化。

▲ AI基础设施走向集群化、系统化也是今年国产AI芯片厂商普遍在谈的话题。在超节点打造和集群建设方面,张亚林说:“燧原和头部互联网企业联合定制开发超节点,联合定制打造万卡训练集群;与中国移动联合开发高密度节点,参与运营商集群建设;与‘东数西算’节点甘肃庆阳联合推进万卡集群项目,提供高效能国产化算力。”

据说基于刚刚发布的第四代产品,燧原正在推进十万卡集群建设。

展位现场工作人员向我们介绍了位于宜昌的智算中心和庆阳的万卡推理集群。“西部电价和各方面的建设、运维成本相对更低,对智算中心而言更具性价比。我们希望能做到‘算尽其用’,让各行各业都能把算力用起来。”

“湖北宜昌的智算中心是我们2023年建的。”其中主要还是基于燧原的第二代产品与解决方案。“现在也跟下游的很多企业,比如无问芯穹、智谱合作。基于云租赁这种比较成熟的商业模式,能够给客户提供具备弹性的算力解决方案。”

“庆阳的万卡推理集群已经在用S60推理卡。”“作为西部五大算力枢纽之一,在庆阳建起万卡集群,就能更好地让S60服务于美图这样的行业客户。”

▲ 与美图的合作,在燧原展位上是作为关键应用案例之一来展示的。“美图现在已经在基于燧原S60做生图、生视频的应用和服务了,累计使用燧原近万卡的算力规模。”“比如像AI换装功能,背后就有我们的算力支持。”

“燧原通过对PyTorch原生推理的支持和优化,和美图的技术团队做了深度耦合。”工作人员在介绍与美图的合作时提到,“去满足美图自研模型、软件优化的需求。”“春节期间,美图的用户量短时间内发生暴增——我们就能做到万卡的弹性动态调度,保证美图用户有好的使用体验。”

“我们庆阳的推理集群就能够给到很好的支持——结合东数西算带来的性价比优势,这对我们的合作来说,达成了双赢。”

▲ 燧原产品的更多大模型应用落地,还囊括了与互联网头部企业之间的合作。比如论坛活动上就出现了腾讯的身影。腾讯云副总裁许华彬说,腾讯拥有600多个业务场景,如社交内容、游戏、办公等领域,均用AI大模型进行了创新实践,也得到了燧原算力的支持。

“基于燧原的算力,跟腾讯这样的头部客户去实现应用落地。”展位工作人员在谈互联网应用案例时说,“比如微信语音和文字的互转,还有像是公众号文章的语音朗读——这类基于传统模型的特性,可以基于AI去实现;在大模型方面,很多互联网公司会用Transformer大模型去提升搜索体验,包括充分利用大模型的多模态理解能力。”“比如图片+文字+视频的互动,再去生成内容。”

当然燧原AI产品的合作与落地远不止这些,但我们能够从中窥见生成式AI应用的潜在市场仍然是巨大的。赵立东在主题论坛活动上谈到“对未来人工智能产业发展趋势”的“几点观察”。包括“第一,当前训练规模越来越大,但玩家越来越少”——这在我们看来,表明的正是AI市场逐步走向成熟;

“第二,算力基础设施正在走向集群化、系统化。”如前所述,这不仅体现市场对AI算力的渴求,也是AI技术落地的表现之一。如赵立东所说集群“相关软硬件技术,包括超节点、网络技术、全光互联、低精度、分布式并行计算、虚拟化等,已不再是一家公司可以单独完成,而是需要跨行业协作,多方聚力,构建系统化的解决方案”。

“第三,开源开放是必经之路。”这一点更多表现的,应该是打破做自有封闭生态的国际巨头的垄断,通过合作共建开放生态,一起实现AI应用普及和大众化,也是行业大部分参与者的共识。展望未来,随着包括最新发布的L600在内的第四代产品的推出,燧原正在推进从万卡到十万卡的集群建设——AI创新应用大概还会更大程度地突破现有市场的想象。