新浪科技

【山证计算机】AI算力专题报告:AI产业高景气持续,算力国产化大势所趋

市场投研资讯

关注

(转自:山西证券研究所)

互联网和智算中心两大下游AI算力需求持续,国产化采购快速推进。1)互联网:24年以来互联网大厂仍持续投入基础大模型训练,并在今年开始布局推理大模型,推动算力资本开支保持快速增长,随着DeepSeek的突破大幅降低应用端门槛以及Agent技术和产品日趋成熟,推理侧需求有望逐渐成为AI算力支出的主驱动力。同时,互联网大厂正在加速推进国产AI芯片采购;2)智算中心:中央和地方政策明确国产AI算力建设目标,奠定AI算力建设的政策基调,24年以来各地方智算中心项目招投标数量仍在持续增加,同时多个全国产化标杆项目已跑通,未来智算中心的AI算力国产化率有望加速提升。

AI芯片:国产替代空间广阔,第一梯队芯片厂商正加速突破性能、产能、生态瓶颈。目前华为昇腾、海光信息、寒武纪、百度昆仑芯国产AI芯片第一梯队厂商正加速追赶英伟达,目前华为昇腾910B已经基本可对标A100,华为昇腾910C预计性能可对标H100,已成为国内互联网厂商国产训练芯片的首选,同时寒武纪、海光信息、昆仑芯新一代主力产品思元590芯片、深算三号、昆仑芯3代未来有望对英伟达H20形成替代。除了硬件性能的快速提升,我们认为一方面,国产芯片厂商正在加快解决国内晶圆代工等供应链问题,另一方面,在生态上,国产AI芯片厂商自研及兼容策略,加快突破CUDA的生态壁垒。由于目前英伟达在国内AI芯片市场仍占据主导地位,国产化替代存在巨大空间,考虑美国芯片出口管制政策存在进一步加码的可能,将倒逼国内客户加快推进国产AI芯片采购。

AI服务器:AI驱动服务器市场格局变化,昇腾系厂商份额持续提升。国内主要互联网厂商对AI服务器仍将保持旺盛需求,根据IDC预测,到2028年中国加速服务器市场规模将达到253亿美元,2024-2028年均复合增速超过20%。24年以来,H20仍在国内互联网大厂及智算中心采购中占据较高份额,推动以浪潮信息为代表的服务器领军业绩高速增长,同时随着昇腾出货量的快速增长,以超聚变和华鲲振宇为代表昇腾系服务器厂商市场份额随之持续提升,在运营商及智算中心采购项目中占据较高份额。除了传统服务器厂商及昇腾系厂商之外,以华勤技术为代表的本土ODM厂商,凭借在消费电子领域积累的研发体系和供应链优势正在快速切入到AI服务器市场。

投资策略:芯片出口管制趋严叠加国产芯片性能提升,两大下游互联网和智算中心的国产AI算力需求将持续高景气。在芯片端,看好新一代产品性能有望大幅提升的第一梯队厂商,推荐海光信息,关注寒武纪、景嘉微等;在服务器端,看好H20放量对传统服务器领军的业绩拉动,推荐浪潮信息,关注华勤技术等,同时看好昇腾芯片份额提升带来的投资机会,关注四川长虹、神州数码、拓维信息等。

风险提示:互联网对国产AI芯片的采购不及预期,智算中心项目AI算力国产化率提升放缓,国产AI芯片技术研发不及预期,行业竞争格局加剧风险。

【AI产业高景气持续,算力国产化大势所趋】

算力需求及国产化两大因素共同推动国产算力发展

全球算力需求持续高景气,目前基础模型训练仍是推动生成式AI需求增长的主要动力,而应用层需求正加速增长。1)训练侧:目前大模型仍在沿着Scaling Law的路径持续升级,头部大模型厂商正在投入更大规模的模型,根据Menlo Ventures数据,对基础模型的投资支出从2023年的10亿美元增加至2024年的65亿美元,提升了5.5倍。同时,推理大模型的加速布局也将抬升后训练阶段的算力投入,并进一步推动训练侧需求增长;2)推理侧:AI应用有望迎来爆发式增长,一方面,ChatGPT等AI原生应用近期的用户月活流量持续增长,同时DeepSeek R1的突破将大幅降低应用开发和部署门槛,进而加速AI应用渗透;另一方面,Agent与RAG正加速企业级AI落地,代表产品包括Palantir的AIP平台、Glean的Assistant、Manus等。

图1:2023和2024年的生成式AI支出方向及变化

国内市场互联网和智算中心两大下游仍保持旺盛的AI算力需求。1)互联网:无论在国内市场还是全球市场,互联网/云厂商都是AI算力的主要下游,根据Trendforce数据,2023年国际大型CSP占全球高端AI服务器需求的65%,同时,根据IDC数据,2024年国内互联网厂商占国内AI服务器需求的比重超过65%。23-24年国内互联网及云厂商的算力采购仍主要用于大模型训练,随着大模型军备竞赛进一步升级以及推理模型和混合模型布局加速,预计25年训练侧算力需求仍将持续,同时随着DeepSeek大幅降低应用开发和部署门槛,推理侧需求将成为推动AI算力增长的重要增量,有望逐渐成为AI算力增长的主要驱动力;2)智算中心:国内智算中心建设从23年开始显著加速,2024年以来相关招投标项目仍在持续增加。目前智算中心的下游用户主要集中于政府机构、院校及科研院所、大模型企业等,而政府机构、院校及科研院所、大模型企业都有持续且明确的训练或推理需求,因此预计2025年智算中心建设仍将持续。

图2:互联网和智算中心是国内AI算力两大下游

在AI算力总需求持续增长的同时,国产化是推动国产AI算力快速成长的主要驱动力。目前互联网和智算中心的国产AI芯片采购占比仍处于较低水平,而随着美国针对高性能AI芯片的出口管制政策逐步趋严,同时以华为昇腾、海光信息、寒武纪、昆仑芯为代表的国产厂商的新一代AI芯片正快速突破性能和生态瓶颈,加速追赶并替代海外竞品。与此同时,头部互联网厂商正逐步推进国产芯片的规模化采购,百度、阿里、腾讯、字节等厂商正不断增加国产AI芯片的采购。同时,在中央和地方政策助力以及全国产化项目的标杆效应下,智算中心的AI芯片国产化率也有望加速提升。

图3:国产AI算力需求框架

互联网:训练算力需求持续,推理侧需求将逐渐占据主导

国内头部互联网厂商仍持续投入大模型训练,全年资本开支保持快速增长。2024年以来互联网大厂仍在持续迭代大模型,并在DeepSeek R1发布后纷纷加快布局推理模型:1)百度:2025年3月16日正式发布新一代原生多模态基础大模型文心大模型4.5以及深度思考模型文心大模型X1;2)腾讯:2025年2月27日,腾讯发布新一代快思考模型混元Turbo S,随后在3月21日,深度思考模型混元T1正式推出,创新采用Hybrid-Mamba-Transformer 融合架构,推理性能业界领先的同时可比参数量下的解码性能高于行业2倍;3)阿里:今年4月29日将Qwen2.5升级至Qwen3,其中旗舰模型Qwen3-235B-A22B在推理、指令遵循、工具调用、多语言能力等方面均实现大幅增强,同时部署成本显著下降,显存占用仅为性能相近模型的1/3,并且Qwen3还创新性引入快思考模式与慢思考模式的混合设计;4)字节:今年4月17日豆包1.5深度思考模型正式发布,将视觉理解能力融入模型中,具备图片推理功能。受AI需求驱动,24全年BAT合计资本开支同比增长163%,预计25年互联网大厂的AI资本开支仍有望持续增加。

图4:AI驱动国内互联网大厂资本开支持续回暖(单位:亿元)

资料来源:腾讯FY24Q4、FY24Q1、FY23Q3、FY22Q4、FY22Q2、FY21Q3、FY21Q1财报,阿里FY25Q3财报电话会,阿里FY24Q2-25Q2、FY22Q2-23Q1财报,百度FY24Q4、FY24Q2、FY23Q3、FY23Q1、FY22Q2、FY21Q4、FY21Q1财报,山西证券研究所

头部互联网厂商AI应用流量持续增长,同时DeepSeek推动应用开发及部署成本下降,AI应用正加速落地,推理侧需求持续旺盛,未来随着AI Agent应用不断成熟,推理需求有望进一步提升。近半年来,豆包、腾讯元宝、通义千问等互联网大厂的AI原生应用月活用户总体仍在持续增加,其中,豆包月活从24年11月的5998万持续增加,到今年5月已破亿,而腾讯元宝自接入DeepSeek以来月活流量快速增加,今年2月和3月的月活分别环比增长265%和196%,4月月活已达到4143万。与此同时,DeepSeek R1作为新一代国产开源推理模型,性能比肩国际顶尖大模型,同时训练及推理成本显著下降,将极大推动AI应用的开发部署,DeepSeek APP月活流量也已从今年1月3370万增加到4月9688万。而展望未来,随着A2A、MCP等Agent相关技术的不断成熟,AI Agent应用有望逐步爆发,从而进一步推升推理侧算力需求,今年3月推出的通用智能体Manus的4月月活用户数已达到71万。

图5:近半年来文心一言、豆包、通义千问、腾讯元宝的应用月活变化情况(月活单位:万)

目前英伟达仍占据国内互联网厂商AI芯片采购的主要份额,以字节、阿里为代表的互联网大厂正不断加大国产AI芯片采购。一直以来国内互联网厂商大模型训练主要基于英伟达A、H等系列芯片,根据Trendforce在2024年初披露的数据,阿里、腾讯等国内头部互联网厂商采购的高端AI芯片中有80%来自英伟达,国产芯片整体份额仍然较低。但随着去年以来美国政府逐渐收紧高端AI芯片出口,头部互联网厂商开始寻求英伟达GPU的替代方案以保障供应链安全,从当前头部互联网厂商采购情况来看,字节、阿里、百度已经在推进以昇腾为代表的国产AI芯片采购,根据路透社报道,24年以来字节已订购超过10万颗昇腾910B,同时阿里、百度、腾讯均开始批量采购。根据Trendforce预测,未来5年英伟达芯片在国内云厂商使用的高端AI芯片中的占比将降至50-60%,相应地,国产AI芯片份额有望显著提升。

图6:国内云厂商高端AI芯片中80%来自英伟达(24年初)

图7:未来5年英伟达AI芯片在国内云厂商高端AI芯片中占比将降至50-60%

智算中心:全国产化项目已跑通,国产化率有望持续提升

《算力基础设施高质量发展行动计划》明确AI算力基础设施建设总体目标,各地方政府随即快速跟进,且部分省市提出国产算力占比要求。2023年10月中央发布《算力基础设施高质量发展行动计划》,明确提出了未来2年内全国AI算力建设目标,包括到2025年算力规模超过300EFLOPS,并且智算占比达到35%。《行动计划》从顶层明确了全国范围内AI算力建设的目标和节奏,随后深圳、上海、江苏、北京等各地方政府发布针对当地的“行动计划”,将全国的算力建设目标分解到当地,比如深圳市政府提出到2025年全市通用算力、智能算力、超算算力分别达到14EFLOPS、25EFLOPS以及2EFLOPS。其中,部分省市补充了算力国产化率的相关目标,比如上海市提出到2025年新建智算中心国产算力芯片使用占比超过50%的目标。

表1:AI算力建设纳入全国性及各省市的政策目标中

资料来源:银川深改公众号,中国政府网,广东网信办官网,广东省通信管理局官网,上海通信圈公众号,国际科技创新中心官网,北京市通信与互联网协会公众号,深圳发布公众号,江苏通信业公众号,江苏省通信管理局官网,北京市经济和信息化局官网,山西证券研究所

国内智算中心建设和运营主要采取政府主导、企业承建、联合运营的模式,考虑到智算中心对安全自主可控的需求,更倾向于国产AI算力采购。智算中心具有算力公共基础设施的定位,建设层面,政府主导下的政企合作模式占据较大比重,由企业具体承建智算中心,同时兼顾智算中心公共属性、技术安全、投资规模巨大等特殊要求,目前运营商是智算中心的主要承建方,其他承建方包括城投企业、IT大厂、IDC企业等,根据数据湖北对2024年前7个月的数据统计,三大运营商在2024年的中标项目中占据超过40%的份额。在建成后,智算中心服务模式包括租赁服务、数据服务、运营服务等,主要应用场景包括政府机构的智慧城市建设、大模型企业的模型训练、院校及科研院所的大数据处理和复杂模拟计算等。由于智算中心具有公共属性及技术安全等特点,政府通常会更倾向于采用国产优质品牌,涉及芯片、交换机、路由器等产品。

图8:智算中心建设的参与方众多

目前部分智算中心已实现全国产化,在标杆项目逐渐跑通之后,未来智算中心的AI算力国产化进程有望进一步加速。2024年以来,全国大力投入智算中心建设,相关招投标项目持续增加,2024全年智算中心相关项目中标公告已发布超458个,其中至少61个项目中标金额超亿元。与此同时,智算中心项目中国产AI算力占比正快速提升。23年12月,国内首个采用全国产AI芯片的千卡智算中心正式落地,芯片供应商为摩尔线程;2024年4月,中国联通建设的北京联通自主创新人工智能算力中心正式启用,提供全国产化AI基础软硬件的300P公共算力能力;在2024年8月份,中国移动建成中国移动智算中心(哈尔滨)并正式投产使用,成为全球运营商最大单集群智算中心,该智算中心部署超过1.8万张AI加速卡,AI芯片国产化率达100%,智算规模达6.9EFLOPS。我们认为,随着采用全国产化AI芯片的标杆智算中心项目陆续跑通,未来智算中心的AI算力国产化率有望加速提升。

表2:各地方仍不断推进智算中心建设

【AI芯片:国产替代空间广阔,第一梯队国产芯片正加速替代】

英伟达仍占据国内市场主导,政策加码创造国产替代空间

当前英伟达在国内AI芯片市场占据主导地位,而国产AI芯片份额仍处于较低水平。根据IDC数据,2022年国内加速芯片出货量约107万张,其中英伟达占据85%的份额,华为昇腾占10%的份额,百度占2%的份额,寒武纪和燧原科技均占1%的份额。到了2024年,虽然国产AI芯片占比有所提升,但仍处于相对较低水平,根据IDC数据,2024年国内加速芯片出货量超过270万张,其中本土品牌出货量已超过82万张,约占整个国内市场份额的30%。

图9:2022年英伟达主导国内AI芯片出货量85%

图10:2024年国产AI芯片约占30%的份额

近年来美国芯片出口管制政策持续加码,英伟达主力AI芯片出口中国大陆受限,且未来管制政策仍有进一步加码的可能。近年来美国不断加码对于高性能AI芯片的出口管制:1)2022年10月更新出口管理条例,提出总处理性能(TPP)和I/O带宽传输速率两大判断指标,禁止TPP不小于4800且I/O带宽不小于600GB/s的AI芯片向中国等地区出口,导致英伟达A100、H100等高端芯片出口受限;2)2023年10月美国商务部再次更新出口管理条例,新增性能密度(PD)指标,并设置1.6、3.2和5.92三个门槛,A800、H800、RTX4090等芯片进入出口管制名单;3)2024年美国政府再次对出口管制条例进行修订,将管制范围从AI芯片扩大到所有搭载AI芯片的电子设备。今年4月9日,英伟达收到美国政府通知,即向中国(包括香港和澳门)出口的H20芯片也需要获得许可,4月14日,美国政府又通知英伟达该许可要求将无限延期。考虑到全球地缘政治风险的持续加剧,未来美国芯片出口管制政策仍存在进一步收紧的可能。

表3:美国芯片出口管制政策持续加码

资料来源:美国驻华大使馆官网,美国商务部官网,华尔街见闻,上观新闻,中国社会科学院工业经济研究所,《产业经济评论》2024年02期《美对华半导体管制的趋势、实施要点与中国因应》,山西证券研究所

英伟达推出的中国特供版AI芯片H20自2024年以来在国内市场仍占据较高份额。虽然H20的训练算力只有H100的15%左右,但其在CUDA生态、通信互联等方面相较于其他AI芯片仍具备显著优势,其中英伟达CUDA生态为开发者提供了全面的并行计算框架和高效的卷积操作,支持高效的深度学习模型训练和推理,国内大模型开发者切换到其他生态具备较高的转换成本。同时,H20保留了H200完整的NVLink和PCIe带宽性能,NVLink互联带宽可达900GB/s,PCIe双向带宽可达128GB/s,在组建大规模GPU集群方面优势显著;此外,相比于H100,H20还增配了HBM3显存容量(96GB)和带宽(4.0TB/s),能够加速模型推理过程中的Decode阶段,导致H20的推理性能优于H100,甚至接近H200。因此,短期内H20在国内市场仍占据较高份额。

图11:英伟达特供版芯片H20、L20、L2对比

国产AI芯片加速追赶,互联网及智算国产化采购快速提升

AI芯片分为GPGPU、FPGA和ASIC三大阵营,国产芯片厂商以GPGPU和ASIC阵营为主。1)GPGPU:具有通用性强的特点,广泛应用于图像处理、AI训练等领域,可支持多种数据类型的运算,英伟达、AMD均采用GPGPU架构。国产代表厂商包括海光信息、壁仞科技、摩尔线程等,这类厂商核心技术团队大多具备AMD、英伟达等国际芯片大厂背景;2)ASIC:具有定制化、专用性强的特点,通常应用于某些需求量较大的特定领域,目前海外的谷歌以及国内的百度、阿里等互联网大厂自研AI芯片大多采用ASIC架构,主要应用于自身业务场景,且华为昇腾、寒武纪等厂商也均采用ASIC架构;3)FPGA:属于半定制化芯片,具有功能可修改、一次性成本低但量产成本高的特点,适用于算法更新频繁或市场规模较小的专用领域,主要厂商包括海外的赛灵思、Altera以及国内的复旦微电子、紫光同创等。

表4:AI芯片厂商可分为GPGPU、FPGA和ASIC三大阵营

资料来源:《Automatic Parallelization for Heterogeneous Embedded Systems》,《New FPGA Design Tools and Architectures》,海光信息招股说明书,AspenCore,EET电子工程专辑,The Next Platform,山西证券研究所

近10年来国产AI芯片厂商快速涌现,同时互联网大厂均开始推出自研AI芯片以满足自身业务需求。其中:1)互联网大厂:包括阿里平头哥、百度昆仑芯等,互联网大厂自研芯片多强调推理性能,主要应用于满足自身业务场景,包括淘宝产品搜索及推荐、百度智能搜索、腾讯云游戏等;2)华为昇腾:2018年华为发布昇腾310和昇腾910,正式切入AI芯片领域,其中,昇腾310主打终端低功耗AI场景,采用12nm工艺,2018年便实现量产;昇腾910采用7nm工艺,可用于AI训练,于2019年正式上市。目前昇腾910系列的主力产品910B综合性能处于国产AI芯片第一梯队,并且910C正在加速生产中,而华为在4月10日合作伙伴大会上又发布了下一代的昇腾920芯片;3)AI芯片初创公司:包括海光信息、寒武纪、壁仞科技、摩尔线程、沐曦等,这类厂商于近10年成立,核心团队大多拥有英伟达、AMD等国内外芯片或IT大厂的技术背景,其中部分厂商自成立以来便专注于AI芯片研发,也有部分厂商此前从事CPU或其他芯片研发,近年开始切入AI芯片领域。

表5:近年来国产AI芯片厂商快速涌现

资料来源:澎湃新闻,国际电子商情,海光信息官网,Wind,海光信息招股说明书,海光信息2024年报,寒武纪官网,中国科学院官网,壁仞科技官网,电子工程专辑,摩尔线程官网,证券时报网,沐曦官网,燧原科技官网,平头哥官网,昆仑芯官网,山西证券研究所

以华为昇腾、海光信息、寒武纪、昆仑芯为代表的国产AI芯片厂商正加速追赶英伟达,目前华为昇腾910B已经基本可对标A100,而新一代的910C也有望成为H100的有力竞争对手。目前华为在人工智能领域的量产芯片有昇腾310与昇腾910两款产品,华为在2019年推出昇腾910芯片,并在2023年推出了升级版昇腾910B。昇腾910B作为华为主力AI训练芯片,在单卡性能上可对标英伟达A100,其FP16稠密算力达到320 TFLOPS,超越A100的312 TFLOPS,与英伟达H20相比,910B在计算能力和能效比方面均表现出色,但在显存配置、GPU互联带宽方面目前仍存在差距,同时正在进行生产的910C的FP16稠密算力达到780TFLOPS,内存带宽为3.2TB/s,综合性能接近H100的80%。此外,华为基于384块910C发布了CloudMatrix 384超节点,在系统层面上与GB200 NVL72展开竞争,CloudMatrix 384包含12个计算机架和4个交换机机架,FP16稠密算力达300PFLOS,是GB200 NVL72的1.7倍,总内存容量和内存带宽也分别是GB200 NVL72的3.6倍和2.1倍,目前已通过昇腾云正式商用。

表6:英伟达、AMD及主要国产AI芯片对比

资料来源:Trendforce,Semianalysis,海光信息招股说明书,寒武纪官网,电子工程专辑,皇华电子元器件IC供应商,平头哥官网,摩尔线程官网,英伟达官网,派欧算力云公众号,AMD官网,山西证券研究所

 寒武纪、海光信息、昆仑芯处于国产AI芯片第一梯队,其新一代主力产品思元590芯片、深算三号、昆仑芯3代未来有望对英伟达H20形成替代。1)寒武纪:2020年寒武纪推出首款7nm训练芯片思原290,INT8算力达到512 TOPS,接近A100的624 TOPS(非稀疏化),2023年年底发布了590系列,综合性能进一步提升,接近A100的80%;2)海光信息:2021年推出深算一号,2023年三季度推出的深算二号性能相对于深算一号提升约100%,且下一代深算三号进展顺利;3)昆仑芯:2020年昆仑芯1代实现量产,主要用于百度搜索引擎、小度等业务,2021年量产的昆仑芯2代较1代性能提升2-3倍,并且百度已点亮基于新一代芯片昆仑芯3代组件的万卡集群。此外,摩尔线程、燧原科技、天数智芯等国产AI芯片厂商已有产品上市,并在部分场景中实现了批量应用。

图12:寒武纪、海光信息、昆仑芯等厂商的新一代主力产品有望对英伟达H20形成替代

资料来源:寒武纪2020年报,寒武纪官网,ofweek,海光信息2023年9月20投资者调研纪要,海光信息招股说明书,昆仑芯官网,百度智能云官网,Trendforce,搜狐,雅虎,新京报,昇腾官网,Tom’s Hardware,山西证券研究所

国产厂商基于兼容及自研两大路径逐渐突破CUDA生态壁垒

英伟达所打造的CUDA生态是目前国产AI芯片实现国产化替代的主要障碍。2006年英伟达首次发布CUDA软件平台,随后进行市场推广,快速渗透人工智能开发者。同时英伟达持续投入软件研发,针对用户反馈的问题进行优化,CUDA平台的软件栈丰富度以及好用程度不断提升,目前CUDA已全面支持TensorFlow、PyTorch等AI框架。通过长期市场培育,CUDA框架已成为事实上的行业标准,根据英伟达在2024年8月底披露的数据,CUDA已拥有510万开发人员,市场上共有3700个CUDA应用程序,涵盖深度学习、科学计算、图像处理等各个领域,同时CUDA的累计下载量达到5300万,考虑到绝大部分国内外大模型或AI应用开发者均在CUDA平台上进行软件研发,因此切换到新框架需要付出巨大的转换成本。

图13:英伟达CUDA架构

国产AI芯片厂商目前主要通过兼容CUDA以及自研两种方式来构建生态。1)海光信息、壁仞科技、摩尔线程等厂商采用兼容CUDA生态的方式,一方面,这类厂商在硬件层面上大多采用与英伟达类似的GPGPU架构,另一方面,这类厂商投入研发具备较高转换质量的编译器,用于CUDA代码转译,因此能够降低CUDA迁移难度并减少效率损失。短期来看,通过兼容CUDA构建生态的优势在于能够实现CUDA应用的低成本迁移,从而使开发者在不改变使用习惯的情况下逐渐过渡为使用国产芯片;2)华为昇腾、寒武纪等厂商致力于构建自主生态,这类厂商会针对自身AI芯片的特性通过自研构建软件栈,以通过软硬件协同更好发挥芯片性能,同时自主可控程度也更高。但在短期内,自建生态难度较大,这类厂商也会通过编译器实现对CUDA的兼容。而由于这类厂商多采用ASIC架构,CUDA迁移难度相对较高,在一定程度到会导致更大的性能损失。

表7:国产AI芯片厂商主要通过兼容CUDA以及自研两种方式构建生态

海光信息DTK开放软件平台封装了AMD的ROCm相关组件,能够高度兼容CUDA生态,同时,海光大量采用国际主流开源方案,较大程度上降低了生态拓展难度。AMD的ROCm框架借鉴了CUDA的许多设计理念,同时经过多年兼容经验积累,在软件库、编译器、API接口等主要模块上与CUDA的相似度非常高,因而ROCm对CUDA具有高度兼容性。而海光DTK软件平台封装了ROCm生态相关组件,并基于DCU硬件进行优化并提供完整的软件工具链,能够充分发挥ROCm高度兼容CUDA的优势,以更低成本将CUDA上运行的应用迁移到海光平台上运行。同时,海光DTK充分利用国际开源社区,MIOpen、Eigen、RCCL等软件库均为目前的主流开源方案,一方面能够降低软件开发工作量,提升用户吸引力,另一方面也方便用户进行二次开发,从而提升用户体验。

图14:海光信息DTK高度兼容CUDA

华为昇腾自研构建了全栈AI计算基础设施、行业应用及服务,包括昇腾系列硬件、CANN异构计算架构、MindSpore AI计算框架等,打造完整的国产化AI生态,并通过软硬件深度协同,充分发挥芯片性能。其中,CANN是华为专为昇腾AI处理器设计的核心软件层,对标英伟达CUDA架构。CANN于2018年9月推出,目前已迭代至8.0.0 alpha001版本,提供了超过1400个硬件亲和的高性能算子,可覆盖主流AI框架的算力加速需求,同时开放了自定义算子开发能力,满足开发者算法创新需求。CANN具有三大优势,包括1)提供用户友好型API,易于开发,2)计算效率、数据处理效率、训练效率较高,3)支持云边端全场景;而自研的AI框架昇思(MindSpore)在国内开发者中的使用率排名第四,仅次于三大第三方框架。目前昇腾生态已初具规模,收录了紫东太初、智谱天启等大模型,适用场景涵盖多模态等,同时,昇思社区用户已超过1220万,收藏项目超过2.86万。

图15:昇腾AI计算体系更完整

【AI服务器:AI驱动服务器市场格局变化,昇腾系份额持续提升】

AI服务器高速增长,市场规模迅速追赶通用服务器

互联网、运营商、金融等各行业用户持续加大AI算力投入,国内AI服务器市场规模整体保持快速增长。根据IDC数据,未来4年国内服务器市场总规模将保持10%左右的增长。而国内AI服务器市场增速将明显快于通用服务器,2024上半年中国加速服务器市场规模达到50亿美元,同比增长63%。在各类AI服务器中,GPU服务器依然占据主导,市场规模达43亿美元,占比达86%,同时NPU、ASIC和FPGA等非GPU加速服务器以同比182%的增速达到近7亿美元市场规模。根据IDC预测,到2028年中国加速服务器市场规模将达到253亿美元,2024-2028年均复合增速超过20%,其中以ASIC为代表的非GPU服务器市场规模占比也将提升至接近50%。

图16:国内服务器总市场规模及增速

图17:国内AI服务器市场规模及增速

从全球看,随着大型CSP以及企业客户不断增加AI算力支出,全球AI服务器市场快速成长,市场规模追赶通用服务器。根据The Next Platform引用IDC数据,到2027年全球服务器市场总规模将达到1891亿美元,2023-2027年CAGR为10.2%。而根据Statista数据,未来4年全球AI服务器市场将保持30%左右的高速增长,预计到2027年市场规模将达到880亿美元,并逐步与通用服务器市场规模持平。

图18:全球服务器总市场规模及增速

图19:全球AI服务器市场规模及增速

AI上游芯片及下游需求驱动服务器市场竞争格局剧变

浪潮信息和新华三等服务器市场领军占据国内AI服务器市场的主导,同时以超聚变和华鲲振宇为代表的昇腾系服务器厂商份额持续提升。根据IDC数据统计,2023年,头部服务器厂商浪潮信息、新华三、超聚变、宁畅在国内x86服务器市场份额分别为28%、16%、11%、10%,同时AI服务器市场中,浪潮信息、新华三、超聚变、宁畅份额分别为36%、19%、7%、14%。其中,浪潮信息在通用服务器和AI服务器均位列国内市场第一,公司凭借JDM模式(Joint Design Manufacture),深度参与到服务器的设计、研发和交付流程,占据了国内互联网客户云服务器和AI服务器的主要份额;而新华三在国内通用和AI服务器市场的份额均仅次于浪潮,公司背靠紫光股份,在政府、运营商、央国企等行业具有较强优势;同时23年超聚变在国内x86服务器AI服务器市场份额分别排名三和第四,目前昇腾910B已经成为国内客户在国产AI训练芯片能够替代A100的主要选择,随着昇腾出货量的快速增长,以超聚变和华鲲振宇为代表昇腾系服务器厂商的份额也随之持续提升。除了传统服务器厂商及昇腾系厂商之外,以华勤技术为代表的本土ODM厂商正在切入到AI服务器市场,凭借在消费电子领域积累的研发体系和供应链优势,公司22及23年的服务器业务均达到数倍的增长。

图20:2023年国内x86服务器市场规模及份额

图21:2023年国内AI服务器市场规模及份额

2024年以来,以浪潮信息为代表的头部服务器厂商收入持续高增验证AI算力景气度。2024年H20在头部互联网厂商及智算中心用户AI芯片采购中占据较高份额,出货量持续增长,其中,截止到2024年9月初,字节的H20订单已追加至32-33万张,并已交付14-15万张,对应服务器环节,以浪潮信息为代表的头部服务器厂商将率先受益。24Q3和24Q4,浪潮信息的营收分别为411亿元和316亿元,分别同比增长76%和78%,同时,24年以来浪潮的存货金额持续增加,24Q4存货金额达到406亿元,创近12个季度新高,预示着公司对未来几个季度的经营发展充满信心。与此同时,以华勤技术为代表的国产头部ODM厂商也开始切入到服务器市场,通过优秀的研发能力和供应链整合能力,市场竞争力快速提升,2023年公司数据业务实现营收3倍增长,并推出首款AI服务器产品,2024上半年数据业务以及其中的服务器板块均同比增长150%,而下半年AI服务器也进入发货高峰期。

图22:22Q1-24Q4浪潮信息营收变化情况

图23:22Q1-24Q4浪潮信息存货变化情况

2024年以来昇腾AI芯片放量带动昇腾系服务器厂商市场份额快速提升,运营商及智算中心采购项目持续验证。三大运营商作为国内智算中心最大的建设主体之一,在2023-2024发标多个大型AI服务器采购项目,其中昇腾系厂商占据运营商AI服务器采购主要份额,具体来看:1)中国移动:2023年以来两次人工智能服务器集采规模合计超万台。2024年4月18日,中国移动公布了《2024年至2025年新型智算中心采购招标公告》,涉及7994台人工智能服务器及配套产品,从中标厂商来看,华为昇腾合作伙伴占据绝对主导,标包1的中标厂商均为昇腾合作伙伴。此前中国移动还发布了2023年至2024年新型智算中心(试验网)集采项目,12个标包对应AI训练服务器采购量总计达到2374台;2)2024年3月底,中国联通发标采购2503台AI服务器,目前在四位中标候选人中有三位是昇腾合作伙伴,包括昆仑技术、宝德、长江计算;3)中国电信:在2023年10月也采购了4175台AI服务器和1182台交换机,4个服务器标包合计超过80亿元,共有超聚变、华鲲振宇、烽火通信、宁畅、中兴、新华三等11家厂商中标,其中昇腾系占比达67%。

图24:中国移动2024年至2025年新型智算中心采购项目中标份额情况(标包1)

图25:中国电信AI算力服务器(2023-2024年)集中采购项目中标份额情况

昇腾系计算产业生态成型,两大领先级部件伙伴将占主要份额

目前昇腾AI芯片连同昇腾服务器、应用软件、生态运营等合作伙伴形成了完整的昇腾计算产业生态体系,其中共有4大类合作伙伴。1)昇腾部件伙伴,即拥有自有品牌产品,并能在昇腾产品基础上二次开发或加工生产,销售至最终用户的合作伙伴,包括华鲲振宇、昆仑技术、神州鲲泰等;2)应用软件伙伴,主要对接昇腾产品二次开发并销售自有知识产权的应用程序、软件、垂直细分应用,包括智谱、精英数智、华启智慧、云从科技、格灵深瞳等;3)基础软件伙伴,主要基于昇腾开发算子、加速库、模型套件、工具链等产品,以及基于开源模型提供微调、后训练、优化加速等专业能力,包括硅基流动、面壁智能、潞晨科技等;4)生态运营伙伴,即运营指定区域内智算中心、生态创新中心或创新实验室的合作伙伴,包括软通智慧、天宽等。

图26:昇腾计算产业生态中主要有4类合作伙伴

昆仑技术(超聚变)和华鲲振宇(四川长虹)两大领先级部件伙伴将占据昇腾服务器较大份额。今年华为升级了合作伙伴政策,在加速增长型伙伴中新增产品增值伙伴,主要分为整机伙伴、部件伙伴和白牌伙伴。目前华鲲振宇和昆仑技术是唯二的领先级昇腾部件伙伴,并均在此前荣获“华为昇腾万里伙伴计划-战略级整机硬件伙伴”认证,将最大程度受益于昇腾产业的崛起,其中,华鲲振宇还是昇腾战略级OEM硬件伙伴,并且据公司高管透露,华鲲振宇在鲲鹏和昇腾整机生态中出货量位于第一。

表8:华鲲振宇(四川长虹)和昆仑技术(超聚变)是唯二的领先级昇腾部件伙伴

【盈利预测及投资建议】

互联网和智算中心两大下游国产AI算力需求将快速增长,其中,24年以来互联网大厂算力需求仍以训练侧为主,随着DeepSeek的突破大幅降低应用端门槛以及Agent技术和产品日趋成熟,推理侧需求将逐渐成为AI算力支出的主驱动力,同时,互联网大厂正加速推进国产AI芯片采购;2024年以来各地方智算中心项目招投标数量仍在持续增加,同时多个全国产化标杆项目已跑通,未来智算中心的AI算力国产化率有望加速提升。

1)芯片端:考虑美国芯片出口管制政策存在进一步加码的可能,将倒逼国内客户加快推进国产AI芯片采购。目前第一梯队国产芯片厂商正加速突破性能、产能、生态瓶颈,在性能上,其新一代主力产品未来有望对H20形成替代;在产能上,国产厂商正加快解决国内晶圆代工等供应链问题;在生态上,国产厂商通过兼容及自研突破CUDA生态壁垒。AI芯片环节推荐海光信息,建议关注寒武纪。

2)服务器端:2024年以来,H20仍在国内互联网大厂及智算中心采购中占据较高份额,推动以浪潮信息为代表的服务器领军业绩高速增长。同时,随着昇腾出货量的快速增长,以超聚变和华鲲振宇为代表昇腾系服务器厂商市场份额随之持续提升。服务器环节推荐浪潮信息,建议关注华勤技术、四川长虹、神州数码、拓维信息。

表9:主要公司盈利预测和估值情况

资料来源:Wind,山西证券研究所;注:采用2025年5月26日的收盘价,海光信息、浪潮信息、中科曙光的预测EPS基于自己的估值模型,其他公司预测EPS采用Wind一致预期数据,其中联想集团预测时间区间为2025-2027财年,收盘价和EPS单位均为人民币元

海光信息:公司将充分受益于AI芯片国产化替代加速。随着美国芯片出口管制政策持续加码,英伟达主力AI芯片出口中国大陆受限,以海光为代表的国产AI芯片市场份额预计将进一步提升。目前,海光DCU位于国产AI芯片第一梯队,在产品迭代上,公司新一代主力产品深算三号未来将成为华为昇腾的有力竞争者,同时,海光DCU系列产品以GPU架构为基础,兼容通用的“类CUDA”环境,因此CUDA上运行的应用能够也低成本迁移到海光平台上运行,公司在软件生态上具有优势。

风险提示:客户集中度较高的风险;供应链风险;主要原材料价格上涨的风险;新产品研发进展不及预期。

图27:2019-2025Q1海光信息收入及增速

图28:2019-2025Q1海光信息归母净利润及增速

浪潮信息:公司是国内AI服务器行业龙头,有望充分受益于AI算力需求的持续高景气。根据IDC数据,2023年公司在国内AI服务器市场占据36%的份额,大幅领先于其他厂商。目前公司与产业链上下游厂商拥有稳固的合作关系,包括上游的国内外芯片厂以及下游的互联网、运营商等行业客户。同时,公司与互联网客户联合推出了JDM(联合设计制造)模式,具备较高的产品研发、生产和交付效率,能够快速满足下游客户对AI服务器的定制化需求。

风险提示:技术研发风险;宏观经济持续下行风险;市场竞争加剧风险;汇率波动的风险。

图29:2019-2025Q1浪潮信息收入及增速

图30:2019-2025Q1浪潮信息归母净利润及增速

互联网对国产AI芯片的采购不及预期。若未来百度、阿里、腾讯、字节等头部互联网厂商减少对国产AI芯片的采购占比,可能会对国产AI芯片厂商的业绩产生负面影响。

智算中心项目AI算力国产化率提升放缓:2024年以来,国内智算中心项目的AI算力国产化率持续提升,且中国联通已建成并投运全国产化智算中心项目,若未来智算中心的AI算力国产化率提升速度放缓,可能会对国产AI芯片及对应服务器厂商的经营发展产生不利影响。

国产AI芯片技术研发不及预期:目前国产AI芯片的性能快速提升,正加速追赶英伟达,若未来下一代芯片性能提升幅度较小,或研发及测试进展不及预期,可能会使AI芯片的国产化替代进程放缓,进而对国产芯片厂商的发展产生负面影响。

行业竞争格局加剧风险:目前国产AI算力需求保持高景气,若AI芯片和服务器市场出现大量新进入者,现有企业的利润率可能会受到不利影响。

分析师:方闻千

执业登记编码:S0760524050001

研究助理:邹昕宸

邮箱:zouxinchen@sxzq.com

报告发布日期:2025年5月27日

本人已在中国证券业协会登记为证券分析师,本人承诺,以勤勉的职业态度,独立、客观地出具本报告。本人对证券研究报告的内容和观点负责,保证信息来源合法合规,研究方法专业审慎,分析结论具有合理依据。本报告清晰准确地反映本人的研究观点。本人不曾因,不因,也将不会因本报告中的具体推荐意见或观点直接或间接受到任何形式的补偿。本人承诺不利用自己的身份、地位或执业过程中所掌握的信息为自己或他人谋取私利。

【免责声明】

本订阅号不是山西证券研究所证券研究报告的发布平台,所载内容均来自于山西证券研究所已正式发布的证券研究报告,订阅者若使用本订阅号所载资料,有可能会因缺乏对完整报告的了解而对其中关键假设、评级、目标价等内容产生理解上的歧义。提请订阅者参阅山西证券研究所已发布的完整证券研究报告,仔细阅读其所附各项声明、信息披露事项及风险提示,关注相关的分析、预测能够成立的关键假设条件,关注投资评级和证券目标价格的预测时间周期,并准确理解投资评级的含义。

依据《发布证券研究报告执业规范》规定特此声明,禁止我司员工将我司证券研究报告私自提供给未经我司授权的任何公众媒体或者其他机构;禁止任何公众媒体或者其他机构未经授权私自刊载或者转发我司的证券研究报告。刊载或者转发我司证券研究报告的授权必须通过签署协议约定,且明确由被授权机构承担相关刊载或者转发责任。

加载中...