新浪财经

中金 | 智算未来系列六:AI产业加速,驱动1.6T光模块需求高景气

市场资讯 2024.04.12 07:28

我们结合情景分析对2025年1.6T光模块的需求量进行测算,综合考虑供需侧的关键变量后,我们预期2025年1.6T光模块的总出货量约在360-595万只,高于当前市场预期,建议关注有望受益于1.6T光模块超预期放量的头部数通光模块/器件供应商。

AI硬件产业需求高景气,计算芯片有望加速放量。结合我们的算力产业链调研,我们预计2024年英伟达H系列和B系列芯片出货量分别达到356万片和35万片,2025年随着GB200进一步交付,B系列GPU总出货量有望达250万片;此外,我们预计谷歌的TPU和AMD的MI300也或将持续部署,我们认为以上AI芯片的需求均将驱动网络层面800G/1.6T光模块的同步放量。

产业链利好频现,1.6T需求有望超预期。OFC 2024上多家参展商展示最新1.6T光模块产品,此前英伟达GTC大会发布的新一代Blackwell AI芯片对互联能力提出更高要求,X800系列交换机使能1.6T网络搭建,而光模块上游产业链亦逐步到位,Marvell在业绩会上预期其单通道200G的1.6T DSP将于2024年底开始部署、博通表示200G EML准备量产,综上,我们认为1.6T产业链上下游正在加速成熟。部署节奏上,我们预计2H24,1.6T光模块有望配合英伟达B系列芯片的量产落地开启配套组网,初步实现小规模放量,至2025年则有望迎来大规模批量部署。技术路径上,我们认为EML单模在1.6T时代仍是主流,同时看好硅光、LPO等新技术方案的渗透率在1.6T时代迎来跨越式增长。需求形态上,我们预计2025年:1)海外头部2家左右大客户的需求将从800G快速向1.6T迭代,1.6T光模块步入快速放量;2)虽有部分客户800G需求因向上迭代而下探,但另一批客户需求从400G向800G迭代有望形成弥补,对800G总需求量形成一定支撑。

我们以2个因素为核心变量,对2025年1.6T总出货量进行情景分析:1)2025年AI硬件采购整体景气度(B系列GPU出货量200-300万只);2)1.6T网络成熟时点(B系列GPU配套1.6T组网方案的比例70%-90%),测得2025年1.6T光模块总出货量水平为360-595万只,中性情景对应470万只,整体区间高于当前的市场预期。

200G EML光芯片量产能力不及预期;AI产业需求不及预期。

1.6T光模块需求量的情景分析

我们综合考虑英伟达、TPU、MI300等AI芯片出货量预测、光模块和AI芯片的配比关系、以及光模块速率配置选择等核心假设,测算得到2025年800G、1.6T光模块需求量或将分别达到791万只、470万只。核心假设如下:

► AI芯片出货量预测:GTC 2024大会上,英伟达发布了基于Blackwell架构的初代B系列云端GPU产品,同时推出了新一代CPU+GPU架构超级芯片GB200,以及对应的计算单元GB200 NVL72,可以在单机柜内提供超算级1E Flops算力,实现从芯片走向系统的性能升级。除通用GPU外,我们预计谷歌的TPU和AMD的MI300也将持续部署,带动800G/1.6T光模块配置需求。

► 光模块和AI芯片的配比关系估测:InfiniBand胖树网络架构之下,由于无收敛网络特性,每一层网络带宽加总基本一致,在AI加速卡和网卡配比关系为1:1的假设基础上,我们测算得到三层组网架构下H100和800G光模块之间的数量比为1:3,两层组网下则为1:2。GTC 2024大会上,英伟达发布X800系列交换机,其中基于InfiniBand协议的Q3400-RA 4U交换机,共有144个800Gb/s端口,可等效分配为72个1.6T端口。我们认为可配置144个端口的Quantum-X800系列交换机的性能较上一代64端口的QM9700系列交换机有较大幅度提升,胖树架构下2层Quantum-X800交换机可支持的集群数增加。从相对谨慎的角度出发,我们按照B系列GPU和1.6T光模块1:2的数量配比关系对光模块有效需求量进行预测。

► 光模块速率配置选择:一般情形之下,我们预计云厂商或AI厂商倾向于优先配置更高传输速率的网络以将集群的计算性能发挥到最优。但考虑到2024年1.6T硬件生态尚未完全成熟,我们预计今年客户在配套英伟达B系列芯片小批量部署组网时或将以800G速率为主,到2025年随着1.6T产业链的逐步成熟,以1.6T配套B系列芯片组网有望成为主流方案。

当前时点,产业内对2025年B系列GPU总出货量尚未有明确订单指引口径,且对B系列芯片出货量的预测还会受到GPT-5发布时间节点、新的AI大模型或应用的落地催化、以及AI商业正循环可实现性的探索等诸多变量扰动,上述因素会影响到以头部云厂商为代表的AI产业参与方对AI硬件的整体采购力度。我们观察到,过去一年市场对北美头部四家云厂商2024年资本开支预期呈一路上修态势,各家企业在公开业绩会上均表示将持续加大对AI基础设施的投入,反映出AI产业的持续进步推动底层硬件需求量扩张,我们认为2025年头部厂商对AI硬件的资本支出仍将继续受到AI产业端变化的影响。

图表:海外Top4云厂商年度资本开支彭博一致预期情况

注:统计时间截至2024/4/1 资料来源:彭博资讯,公司公告,中金公司研究部

我们以2个因素为核心变量,对2025年1.6T光模块总出货量进行情景分析:1)2025年AI硬件采购整体景气度(B系列GPU出货量200-300万只);2)1.6T网络成熟时点(B系列GPU配套1.6T组网方案的比例70%-90%,其余为800G)。

综合考虑AI产业需求景气度、以及1.6T光电口关键技术商用成熟时点等变量,经我们情景测算,我们预期2025年1.6T光模块的总出货量区间有望在360-595万只,区间整体水平高于当前市场预期,相关测算表请详见报告原文。

新一代计算集群对高速光模块延续高需求,产业链景气度共振向上

AI发展浪潮下,新一代计算集群呈现两个趋势变化:

► 网络流量高速增长、东西向流量为主:中国移动研究院发布的《面向AI大模型的智算中心网络演进白皮书(2023年)》,智能计算需要大量并行计算,产生的All Reduce(全规约)集合通信数据量达百GB级别。我们认为,在大模型百花齐放的背景下,“千模大战”将驱动网络流量进一步高增。同时,东西向(即服务器之间)流量占比大幅提高,根据思科预测,当前东西向流量占比或已达到网络流量的80-90%。

► 典型网络架构从三层树型架构向以脊叶架构为代表的多核心架构转变:据英伟达和英迈中国联合开展的英伟达新一代数据中心网络产品培训会公开资料,数据中心原以传统三层架构为主,多采用树型架构,具有2个核心,向上逐层汇聚,南北向流量为主。三层网络架构分别是接入层、汇聚层和核心层。其中,接入层直接面向用户连接,汇聚层连接接入层和核心层,提供防火墙、SSL卸载、入侵检测、网络分析等服务,核心层是网络的高速交换主干。由于智能计算对通信性能需求的提升,AI云端训练及推理需求驱动数据中心网络架构逐渐走向多层不汇聚、少收敛、更具可拓展性的形态。

我们认为,智算中心整体流量增长、以及网络架构的演进共同推升连接需求,带动光模块用量提升、速率升级。

英伟达数据中心采用胖树型架构构建无收敛网络,三层网络能够连接的节点数多于二层网络。英伟达数据中心的胖树模型相比起传统胖树模型,使用大量高性能交换机构建大规模无阻塞网络,甚至增加上行端口以避免丢包导致网络崩溃,更类似于扩散型架构。层数方面,有二层组网和三层组网供选择,其中三层网络架构相比于二层架构,能够连接的节点数更多,即可实现更多AI芯片的互连,适用于更大参数量AI大模型的训练。

图表:传统三层网络架构有接入层、汇聚层和核心层

资料来源:51CTO,中金公司研究部

图表:英伟达DGX SuperPOD三层胖树架构

资料来源:英伟达官网,中金公司研究部

DGX H100 SuperPOD提供两套组网方式:

► 采用类似A100 SuperPOD组网方式,使用CX-7网卡、InfiniBand交换机实现跨服务器连接。根据英伟达官网示意图,我们假设每台H100服务器配置8张400Gb/s ConnectX-7单端口智能网卡,每四张CX-7网卡整合在一个网络模块当中,两个网络模块向外连接到InfiniBand交换机,每个模块提供2个2*400G NDR OSFP端口,即网卡侧对应4个800G光模块,网卡连接到第一层交换机侧亦需要配置4个800G光模块,一层网络共计需要8个800G光模块。由于无收敛网络特性,InfiniBand胖树网络架构中每一层所对应到的网络总带宽基本一致,则在上述AI加速卡和网卡配比关系为1:1的假设基础上,我们测算得到三层组网架构下H100和800G光模块之间的数量比为1:3,两层组网下则为1:2。

图表:DGX H100系统内部连接示意图

注:四张CX-7网卡整合在一个网络模块上,两个网络模块向内通过PCIe总线和GPU计算单元连接,向外通过光模块光电转换后连接到交换机

资料来源:英伟达官网,中金公司研究部

► 采用新型NVLink交换系统:将过去用于服务器内部GPU高速互连的NVLink外化到256个节点的集群,利用第四代NVLink和第三代NVSwitch构建L1、L2两层NVLink网络,实现多达32个节点(256张GPU)的直接互连和共同访存。在这种NVLink组网方案中,GPU和L1 NVSwitch(机柜内部)之间采用铜缆互联,L1和L2层NVSwitch之间则采用光互联,向上形成18对800G OSFP连接需求,H100和800G的数量配比关系较第一种组网方案有所提升。而在256 DGX GH200 AI超级计算机中,我们推算GH200和800G光模块的用量关系或进一步推升至1:9:核心假设为每一个节点(node)内8颗GH200和3个L1 NVS之间的互联方式采用铜缆,DGX GH200中共有32个这样的节点,32个节点向上和36个L2 NVS通过光互联方式实现两两连接,则L1和L2之间的连接对数为1,152(32*36)个,对应2,304只800G光模块,光模块用量明显提升。

图表:英伟达DGX H100系统数据网络配置图示

资料来源:英伟达官网,中金公司研究部

图表:DGX A100 256 SuperPOD、DGX H100 256 SuperPOD、256 DGX GH200集群对比

资料来源:英伟达官网,中金公司研究部

值得注意的是,若要在上述256张GPU互连形成的SuperPOD基础上进一步扩容至千卡以上规模的集群,则需要借助InfiniBand Links进行扩展组网。以1024张GPU集群为例,据英伟达官网,通过NDR InfiniBand Links形成两层脊-叶网络架构,连接4个DGX H100 256 SuperPOD集群,从而实现1024张GPU的直接互联。在SuperPOD外的InfiniBand网络当中,我们认为800G光模块的用量仍可以沿用此前两层架构下的比例关系进行估测,即H100 GPU和800G光模块比例约为1:2。

图表:基于A100和H100搭建的千卡集群对比

资料来源:英伟达官网,纳多德官网,中金公司研究部

GTC 2024大会上,英伟达发布GB200 NVL72,GB200 NVL72由18个计算节点、9台NVLink Switch tray、1台Q3400-RA 4U InfiniBand交换机组成。其中,单个计算节点由4块Blackwell GPU和2块CPU组成,即GB200 NVL72包含72块GPU,每个节点配置4张800G ConnectX-8网卡,Blackwell GPU和CX-8网卡的数量配比关系仍为1:1。这意味着在采用InfiniBand进行AI后端组网时,B系列GPU的数量和1.6T光模块的配比关系将延续H100时期的比例(两层组网为1:2,三层组网为1:3)。

我们在上一章节提到,英伟达新推出的可配置144个800G端口(等效分配72个1.6T端口)的Quantum-X800系列交换机使能1.6T网络搭建,其性能较上一代64端口的交换机有较大幅度提升,胖树架构下2层Quantum-X800交换机可支持的集群数增加至10,368片,这意味着两层组网的覆盖面或将提升,因此我们在情景分析的假设中保守采用了1:2的比例关系测算。但我们认为随着GPU集群规模的持续扩容、万卡及以上级别互联需求的增加,所需的光模块数量或将呈现进一步增长态势。

图表:GB200计算节点内,4块Blackwell GPU以1:1的配比与4张ConnectX-800G连接

资料来源:英伟达官网,中金公司研究部

NVLink组网方面,GB200 NVL72单机柜方案中,机柜内部的计算节点与NVLink Switch互连,主要使用铜缆、无需经过光电信号转换,这一点与此前GH200机柜内互连方案一致。而在部分高性能AI计算场景中,可使用第五代NVLink实现至多8个GB200 NVL72系统(576个Blackwell GPU)的高速互联。NVL72机柜基于NVLink跨机柜互连时,两两互连可使用LACC铜连接,但涉及到多机柜互连时,如参考此前GH200组网架构,需另配置L2层NVS,而若在L1和L2 NVS之间采用光互联,我们预计光模块和GPU的用量比例将进一步提高。

据英伟达官网,GB200较上一代产品性能提升,与相同数量的72个H100组成的计算集群相比,GB200对大模型推理性能提升高达约30倍,成本和能耗降低约25倍,我们预计GB200在Blackwell GPU出货量中占比有望相比Hopper系列中GH200的占比有所提升。

综上,我们认为GB200有望凭借性能优势实现出货量占比提升,系统内跨多个机柜的NVLink连接场景仍有望促进光模块配比较单片连接方案增长,双重因素叠加有望推升新一代计算生态对高速光模块需求量。

图表:GB200计算集群网络架构

资料来源:英伟达官网,中金公司研究部

风险提示

200G EML光芯片量产能力不及预期。200G EML光芯片量产能力的到位能够为1.6T光模块的成熟部署提供上游核心原材料的支撑。若200G EML光芯片的量产时间节点、或产能爬坡速度不及预期,或拖累1.6T的产业部署节奏,影响2025年1.6T光模块出货量。

AI产业需求不及预期。随着社会数字化及智能化转型的持续,AI大模型场景落地加速赋能百行百业。我们认为,人工智能的蓬勃发展驱动算力需求持续提升,推升服务器、光模块、交换机等AI硬件需求。若AI大模型或应用落地不及预期、或商业化变现之路受阻,或影响以头部云厂商为代表的AI产业参与方对AI相关基础设施的投资力度和决心,可能会对上游AI硬件设备的市场增速、产品迭代速度产生不利影响。

本文摘自:2024年4月11日已经发布的《智算未来系列六:AI产业加速,驱动1.6T光模块需求高景气》

李诗雯 分析员 SAC 执证编号:S0080521070008 SFC CE Ref:BRG963

郑欣怡 联系人 SAC 执证编号:S0080122070103

黄天擎 分析员 SAC 执证编号:S0080523060005 SFC CE Ref:BTL932

温晗静 分析员 SAC 执证编号:S0080521070003 SFC CE Ref:BSJ666

夏依琳 联系人 SAC 执证编号:S0080123060005 SFC CE Ref:BUL745

陈昊 分析员 SAC 执证编号:S0080520120009 SFC CE Ref:BQS925

彭虎 分析员 SAC 执证编号:S0080521020001 SFC CE Ref:BRE806

加载中...