英伟达或率先采用台积电A16制程,延续AI芯片领先优势
关键词: 英伟达 台积电A16制程 AI计算芯片 超级电轨技术 算力能效比
据产业链最新消息,AI芯片龙头英伟达已与台积电达成合作意向,计划在其下一代AI计算芯片中率先采用台积电最新研发的A16制程工艺,预计将会用在未来Feynman架构上。这将是由AI应用第一次主导台积电最先进制程。
台积电A16制程是继N3(3nm)、N2(2nm)之后的又一重要技术节点,预计将在2026年下半年进入试产阶段,并于2027年实现大规模量产。该制程在N2技术基础上进一步优化,采用更先进的晶体管结构、高精度光刻技术与材料创新,旨在提升芯片的能效比、晶体管密度和性能表现。
据悉,台积电位于台湾新竹的Fab 20超大晶圆厂正进行N2及后续节点的建设,预计将成为A16的主要生产基地。
据台积电内部资料,台积电A16技术,结合领先的纳米片晶体管及创新的超级电轨(Super Power Rail,SPR)解决方案以大幅提升逻辑密度及效能。“SPR将供电线路移到晶圆背面,以在晶圆正面释放出更多讯号线路布局空间,来提升逻辑密度和效能。SPR也能大幅度降低压降(IR Drop),进而提升供电效率。更重要的是,我们独特的背面接面(Backside Contact)技术能够维持与传统正面供电下相同的闸极密度(Gate Density)、布局版框尺寸(Layout Footprint)和组件宽度调节的弹性,因此可以提供最佳的密度和速度上的优势,这也是业界首创的技术。”
相较于台积电的N2P制程,A16在相同Vdd(工作电压)下,速度增快8-10%,在相同速度下,功耗降低15-20%,晶片密度提升高达1.10倍,特别适用于具有复杂讯号线路和高密度供电线路的高效能运算(High-Performance Computing,HPC)产品。
英伟达作为台积电长期且最重要的客户之一,近年来其GPU和AI加速芯片几乎全部由台积电代工。此次若率先采用A16,将进一步拉开其与竞争对手在算力能效比上的差距。
有分析认为,英伟达计划将A16制程应用于其下一代AI训练芯片,可能是Blackwell架构的后续产品,或代号为“Vera”的新一代GPU架构。随着大模型参数规模持续增长,训练和推理对算力的需求呈指数级上升,芯片性能的提升愈发依赖先进制程的支持。A16制程的高密度和低功耗特性,将有助于英伟达在单芯片上集成更多CUDA核心、Tensor核心和高速缓存,同时降低数据中心的能耗成本。
