新浪科技 美股

全文|英伟达Q2业绩会实录:Blackwell Q4开始生产 明年业绩将很棒

新浪科技

关注
听新闻

英伟达今日公布了截至2024年7月30日的2025财年第二财季财报:营收为300.40亿美元,同比增长122%,环比增长15%,创下历史纪录;净利润为165.99亿美元,同比增长168%,环比增长12%;不按照美国通用会计准则的调整后净利润为169.52亿美元,同比增长152%,环比增长11%(注:英伟达财年与自然年不同步,2024年1月底至2025年1月底为2025财年)。

英伟达第二财季调整后每股收益和营收超出华尔街分析师预期,对第三财季营收作出的展望也同样超出预期。尽管如此,英伟达盘后股价仍旧下跌了5%以上。

  详见:英伟达第二财季营收300.40亿美元 净利润同比大增168%

财报发布后,英伟达创始人、总裁兼首席执行官黄仁勋和执行副总裁兼首席财务官科莱特·克雷斯等高管出席随后召开的财报电话会议,解读财报要点并回答分析师提问。 

以下是分析是问答环节主要内容: 

美银美林分析师Vivek Arya:黄仁勋在前面的发言中提到Blackwell GPU的光学掩膜版发生了变化。我想知道,在后端封装或其他方面是否还有任何其他渐进式变化?与此相关的一个问题是,你表示尽管设计发生了变化,但你可以在第四季度出货数十亿美元的Blackwell人工智能芯片,这是因为彼时所有这些问题都会得到解决吗?Blackwell产品的任何变化对于公司总体的经营有哪些影响?对你们的收入状况意味着什么,以及客户对此有何反应?

黄仁勋:是的,光学掩膜版的调整已经完成,无需进行功能更改。我们目前正在针对各种系统配置进行Blackwell芯片和Grace Blackwell超级芯片的测试。在台北电脑展上我们展示了大约一百种基于Blackwell的不同类型的系统,我们正在同生态系统合作一起测试这些系统。Blackwell的功能保持不变,我们预计将在第四季度开始生产

高盛分析师Toshiya Hari:想问黄仁勋一个关于公司长期发展的问题。如你所知,市场对于客户以及客户投资回报率存在相当激烈的争论,这对公司未来资本支出的可持续性意味着什么?在内部,管理层关注哪些因素?当公司衡量客户回报以及对资本支出的影响时,你们的主要关注哪些指标?还有一个问题给科莱特,我看到公司全年的主权人工智能收入可能增加了几十亿美元,是什么推动了业绩前景的改善?我们应该如何看待2024财年的整体情况?

黄仁勋:首先,我刚才所说的四季度生产,实际是出货的意思,是开始出货。关于你提到的长期发展的问题,我们可以退一步思考。我说过我们正在同时经历两个平台转型,第一是从通用计算向加速计算转型,原因是CPU的扩展在一段时间以来已经在放缓,甚至可以说慢得像蜗牛爬。相比而言,计算需求的数量继续大幅增长,甚至可以估计说每年都在翻番。

因此,如果我们没有新的方法,计算膨胀将推高每个公司的成本,并将推高全球数据中心的能源消耗,这些都是大家目睹的正在发生的情况,所以答案是加速计算。我们知道加速计算可以加速应用程序,还使你能够在更大规模上进行计算,例如科学模拟或数据库处理,这也直接意味着更低的成本和更低的能源消耗。

事实上,本周发布的一篇博客谈到了英伟达提供了一大批新的加速库,这就是从通用计算向加速计算转型的核心,利用好这一转变实现节省90%的计算成本也并不罕见——如果你将一个应用程序加速50倍,可以预期计算成本会大幅下降。

第二个转型是由加速计算促成的,因为我们将大型语言模型或深度学习的训练成本如此大规模地降低,以至于现在它可以拥有巨大的模型、数万亿参数的模型,并在几乎所有全球知识语料库上进行预训练,然后让模型去弄清楚如何理解人类语言的含义, 以及如何将知识编码到其神经网络中进行学习推理,这引发了生成式人工智能革命。现在我们退一步谈谈为何如此深入地投入生成式人工智能,因为它不仅是一项功能,也不仅仅是一种能力,而是一种全新的软件开发方式。

我们有了数据,而不是人工设计的算法,可以告诉人工智能,告诉模型,告诉计算机我们期待的答案是什么,我们以前的观察结果是什么,然后让它去找出算法,函数,它会学习到一个集合,人工智能有点像一个通用函数逼近器,能够不断学习函数,学习几乎任何事物的函数,任何可预测的事物,任何有结构的事物,任何你有先前范例的事物。生成式人工智能是一种全新的计算机科学形式,影响着从CPU到GPU的每一层计算,从人工设计的算法到机器学习的算法,利用生成式人工智能开发和构建的应用程序从本质上来说都是非常了不起的。

在生成式人工智能技术中有几件事情正在同时发生,第一是前沿模型的规模正在大幅度地不断增长,我们都看到了规模扩大的好处,每当我们将模型扩大一倍,也必须将用于训练它的数据集扩大一倍以上,随之而来的创建该模型所需的浮点运算次数呈二次方增长,所以看到下一代模型可能比上一代需要多10倍、20倍、40倍的计算量也是在意料之中的。

因此,我们必须继续大幅提高每一代产品的性能,才能降低能耗,并降低实现它所需的成本。这是我们所说的第一点,有更大的前沿模型在更多的模态上进行训练。令人惊讶的是,前沿模型的制造商在数量上比去年更多了,这是生成式人工智能正在发生的动态之一

第二点是,所有现在市场上呈现的状况也只是冰山一角,我们看到的ChatGPT、图像生成器、生成式人工智能辅助编程,辅助编程在英伟达就有非常广泛的应用,当然还有很多数字设计师之类的应用等等。但这些只是冰山一角,冰山之下是当今世界上最大的计算系统,以前我谈过这个,就是推荐系统从CPU转向生成式人工智能。

推荐系统、广告生成、定制广告生成、大规模超精准定向广告、搜索和用户生成内容,这些都是非常大规模的应用。生成式人工智能初创公司为我们的云合作伙伴和主权人工智能业务创造了数百亿美元的云租赁业务,很多国家现在已经意识到他们的数据是他们的自然和国家资源,并且必须使用人工智能建立自己的人工智能基础设施,以拥有自己的数字智能。

另外,如Cole之前提到的,企业人工智能正在起步,大家可能已经看到我们所宣布的,世界领先的IT公司正在同我们一道,将英伟达企业人工智能平台带给全球企业。与我们洽谈过的许多公司都非常希望我们的产品能够为其挖掘更多的生产力。然后还有通用机器人技术,去年出现的一个重大转变就是我们现在能够通过观看视频、人类演示,和来自像Omniverse这样的系统强化学习所生成的合成数据来学习物理人工智能,我们现在与几乎所有的机器人公司合作,开始思考并着手构建通用机器人技术。你可以看到生成式人工智能有很多不同的发展方向,生成式人工智能的发展势头在加速。

科莱特·克雷斯:关于主权人工智能以及我们在增长和收入方面目标的问题,这的确是一个独特且不断增长的机会,也是随着生成式人工智能出现的,世界各国都渴望拥有自己的生成式人工智能,能够融入自己的语言、文化和该国的数据,探索围绕这些模型以及它们对国家的特定用途,因此我们看到了一些增长机会。

摩根士丹利分析师Joe Moore:在新闻稿中,黄仁勋谈到了对Blackwell的期待令人难以置信,而且似乎对于Hopper的需求也非常强劲。10月份在没有Blackwell上市的情况下,预测公司的表现会是怎样的?这两种产品的强劲需求会共存多久?能否谈谈向Blackwell的过渡情况?人们会混合使用集群吗?大多数Blackwell的活动会在新集群中进行吗?

黄仁勋:Hopper的需求确实非常强劲,市场对Blackwell的需求也确实令人难以置信,主要有以下几个原因。第一,如果你去看世界上的云服务提供商,他们可用的GPU容量基本上为零,因为其容量被内部部署用于加速他们自己的工作荷载,例如数据处理,这方面我们谈论的比较少,因为它很普通,它不会生成图片或文字,但几乎每一家公司都在后台处理数据。而英伟达的GPU是全球唯一能够处理和加速数据的加速器,无论是SQL数据、Pandas数据,以及新的Polar数据,这些都是世界上最受欢迎的数据处理平台。英伟达的加速计算是从数据处理中获得性能提升的唯一方法,我们所说的第一点应用是在生成式人工智能出现之前很久就有的主要用例,即应用程序向加速计算的迁移。

第二是租赁,将容量租给模型制造商和初创公司。一家生成式人工智能公司将其绝大部分投资资本投入到基础设施中,以便他们能够使用人工智能来帮助他们创造产品,这些公司的需求是刚性的,不是明年,而是今天就必须要做的事情。Hopper向人工智能新高地冲刺的情况也推升了市场需求,第一个到达下一个高地的公司能够推出更具有变革性的人工智能,而第二个到达的只是稍微好一点或者差不多。所以,有系统地、持续地向新的高地冲刺,并第一个到达的能力是公司确立行业领导地位的秘诀。英伟达一直在这样做,通过我们所制造的GPU、人工智能工厂、网络系统、系统级芯片,我们也向世界很好地展示了这一点。这些目标也推动公司不断努力,为市场带来更好的产品。

虽然Blackwell将在今年年底开始出货数十亿美元的产品,但建立起产能可能还需要几周甚至一个月左右的时间。其间,生成式人工智能市场会有很多变化,所以大家都赶着拿到Blackwell产品,甚至跳过Hopper等待Blackwell。当然,H200依然是最先进的产品,如果你还在为业务建立CPU基础设施,还是Hopper基础设施之间做选择,选择Hopper应该是很明确的。市场有非常急迫的需求,将已建成的1万亿美元的基础设施转换为更为现代的基础设施,而在其中Hopper是最先进的。

TD Cowen分析师Matt Ramsay:我想回到前面一个关于投资者对资本支出投资回报率所持争论的问题上。管理层观察到的,试图通过投资将前沿技术推向通用人工智能融合的那些公司,其工作的优先事项是什么?投资方面有怎样时间框架?

黄仁勋:投资英伟达基础设施的人马上就能获得回报,这也是所有目前能进行的计算基础设施投资中回报率最高的,最简单的思考方式就是回归基本原则。如果你现在拥有价值一万亿美元的通用计算基础设施,问题是你还想再建更多这样的基础设施吗?对于价值十亿美元的,基于瞻博网络(Juniper)CPU所建设的基础设施,租金可能达不到十亿美元,全球已经有一万亿美元的这种基础设施了,再去增加有什么意义?对于那些急切地想要获得此类基础设施的人,基于Hopper的基础设施以及很快推出的基于Blackwell的基础设施将能为他们省钱,包括高效的数据处理和推荐系统,这就是巨大的投资回报。

第二是你所打造的基础设施都可以租给其他公司,因为有很多公司有创建生成式人工智能的需求,这方面的投资回报率非常高。第三个原因是有利于你自身的业务,创造下一个前沿领域,或是你的互联网服务能从下一代广告系统、推荐系统或搜索系统中受益,对于你的服务、商店、用户生成内容、社交媒体平台等等来说,生成式人工智能也是一个快速获得投资回报的方式。核心是利用最好的芯片平台建立最好的计算基础设施。通用计算的世界正在向加速计算转变,人工设计软件的世界正在向生成式人工智能软件转变。如果你要建立基础设施来使你的云服务和数据中心现代化,那就需要利用英伟达的加速计算产品来建设。

瑞银分析师Timothy Arcuri:我有一个关于短期和长期收入增长形势的问题。Colette,公司增加了今年的运营费用,在采购承诺和供应方面的增加,情况也相当乐观。另一方面,有一些观点认为,似乎没有那么多客户真的准备好接受液冷,我也认为其中一些机架可以是风冷的。但是,在Blackwell的增势方面,这是我们需要考虑的因素吗?

另外,很明显,明年会是业绩非常棒的一年,而当我们展望2026年时,你是否担心其他限制因素,比如,说电源供应链,或者在未来某个时候,模型规模会变小?

黄仁勋:关于你提到的几个问题,我想从后往前谈一下。世界正在从通用计算向加速计算转变,全球已经建造了价值约一万亿美元的数据中心,几年内这些价值一万亿美元的数据中心都将实现向加速计算的转变。过去,数据中心没有GPU,只有CPU,而未来,每个数据中心都将基于GPU运行。原因很明显,你就是我们需要加速工作荷载,保持可持续性,继续降低计算成本,避免计算膨胀。

第二,我们需要GPU来支持一种称为生成式人工智能的新计算模型,这将推动计算在未来产生巨大的变革。所以,我认为倒过来思考,下一个一万亿美元的基础设施会与上一个一万亿美元不同,而且将大大加速。

关于业务的增势,我们提供多种配置的Blackwell,其中有Blackwell经典款,如果你愿意这么称呼的话,它采用我们在Volta时代开创的HGX外形规格,它是风冷的。Grace Blackwell是液冷的,希望采用液冷的数据中心数量相当可观,原因是在液冷数据中心,在任何功率受限的数据中心,你都可以安装和部署比过去高三到五倍的人工智能吞吐量,所以,液冷更便宜。液冷的总体使用成本效益更好,基于液冷的NVLink功能,允许我们将其扩展到72个Grace Blackwell封装,这意味着可以安装144个GPU,也就是144个GPU通过NVLink连接在一起。

另外一个优势是涉及到大型语言模型推理的极低延迟和极高吞吐量,而超大的NVLink域将为此带来变革。所以,我认为人们会很愿意同时部署这两种平台,而且实际上几乎我们合作的每一家云服务提供商都在部署这两种中的一种,我也非常有信心能够顺利地提升产量。

你提到的第三个问题关于展望未来,是的,明年将是业绩非常棒的一年,我们预计明年数据中心业务会有相当大的增长。Blackwell将为整个行业带来彻底的变革,其影响将持续到下一年。正如我之前所提到的,从基本原则倒推,大家记住计算正在同时经历两个平台转型。这真的非常重要,要专注于这一点,即通用计算正在向加速计算转变,而人工设计的软件将向生成式人工智能或人工智能学习的软件过渡。

伯恩斯坦研究分析师Stacy Rasgon: 我有两个简短的问题要问给科莱特。第四季Blackwell所创造的最初几十亿美元收入,可以视作是新增的吗?你说过你预计Hopper的需求在下半年会增强,是否意味着在Blackwell增加几十亿美元收入的基础上,Hopper需求也会从三季度到四季度出现环比的增强?

第二个问题是关于毛利率,假设我预计今年全年毛利率为75%,第四季度可能在71%到72%左右,这也是公司的预期毛利率水平吗?随着Blackwell产量的提升,我们应该如何看待明年毛利率的驱动因素?尤其是在良品率、库存储备和所有因素都能有所改善的情况下。

科莱特·克雷斯:我先来回答你关于Hopper和Blackwell的问题。我们相信Hopper在下半年会继续增长,我们有很多针对Hopper的新产品,现有的Hopper产品会在接下来的几个季度继续增加产量,新产品会在第四季度推出。与上半年相比,Hopper在下半年是一个增长机会。此外,在此基础上我们还有Blackwell,Blackwell将在第四季度开始增加产量。

关于毛利率的问题,我们介绍了第三季度的毛利率,在非通用会计准则下的毛利率约为 75%,全年仍有望达到中高70%区间,大约是75%。第四季度会看到一些轻微的差异,是由于我们的转变以及我们新产品推出时的不同成本结构。然而,我们没有确切的展望可以提供,但我认为你的数字比我们的要低。

Melius分析师Ben Reitzes:我想问一下关于不同地区的运营情况。根据10-Q财报,美国地区环比下降,而几个亚洲地区则环比大幅上升。显然,中国市场的表现非常好,这其中涉及哪些利弊因素?另外,如果考虑到所有这些有利的收入变化情况,是否意味着公司的整体收入环比增长率在第四季度会加速?

科莱特·克雷斯:我来谈谈10-Q报告中关于部分地区的运营情况,这是公司必须披露的事项之一,要做出正确的披露有时候非常具有挑战性,因为我们必须考虑其中的关键内容,比如我们将产品销售给谁,但这并不一定是产品最终的去向,甚至不一定是产品最终到达最终客户的地方。这些产品主要是流向我们的原始设备制造商(OEM)、原始设计制造商(ODM)以及我们的系统集成商,涵盖我们的大部分产品组合。

所以,你看到的有时只是客户用于建构产品完整配置方面的订单,这些产品可能会用于建构数据中心,有可能用于笔记本电脑。但是没错,我们所披露的中国数字是向中国市场销售的数据。也提请大家注意的是,这些数字中包含了游戏、数据中心以及汽车业务。

关于毛利率以及我们在Hopper和Blackwell的收入方面所看到的情况。Hopper在下半年将继续增长,下半年的总体情况我们现在还无法确定,还不能对第四季度的情况作出展望,但我们的确看到了需求预期,四季度出现增长的可见性非常高。除此之外,我们还将拥有Blackwell架构。

Cantor Fitzgerald分析师C.J. Muse:考虑到先进封装技术相当有限,且复杂性不断增加的情况,尽管挑战可能会越来越多,公司的产品节奏依然格外令人瞩目。所以我很好奇,这种背景下,对于潜在的,更大程度的垂直整合,以及供应链合作伙伴关系,公司将如何进行调整?对公司的利润率状况会产生怎样的影响?

黄仁勋:回答你的第一个问题,我们的产品发布节奏如此之快是因为模型的复杂性一直在增加,而我们想继续降低其成本,扩大其规模。我们相信,通过继续扩大人工智能模型的规模,将开启和实现下一次工业革命。我们坚信这一点,所以,我们将非常努力地推动自己继续沿着这个道路走下去。

我们有相当独特的能力来整合和设计人工智能工厂,因为我们拥有所有的部件。明年,我们将创下CPU出货量的纪录,当然还有更多的GPU,还有NVLink交换机、CX DPU、用于东西向流量的ConnectX、用于南北向流量的BlueField DPU,以及用于将数据和存储处理部署到InfiniBand和以太网的超级计算中心,这对我们来说是一个全新的产品,它正在顺利地成为数十亿美元的业务,将人工智能带到以太网。我们的架构堆栈能够向市场推出新的处理能力。如果没有这些能力,而只做出货这些部件的工作的话,在销售给客户之后,还是需要有人构建人工智能工厂,而人工智能工厂有大量的软件,这不是谁来整合的问题。

很高兴我们的供应链是分散的,可以为广达、富士康、惠普、戴尔、联想、超微提供服务,我们也曾经能够为中兴提供服务。我们拥有的生态系统合作伙伴,包括技嘉和华硕,他们能够应用我们的架构,以定制的方式整合到世界上所有的云服务提供商、企业数据中心中去,我们的原始设计制造商和集成商所提供的必要规模和覆盖范围,整合的供应链是巨大的,因为世界市场是巨大的,合作伙伴所做的事情是我们不想做,也不擅长做的事情。但我们知道如何设计人工智能基础设施,以客户喜欢的方式提供给他们,并让生态系统进行整合。

富国银行分析师Aaron Rakers:我想回到关于Blackwell产品周期的问题。当我们开始考虑Blackwell周期的发展时,你如何看待机架规模系统的混合情况?

黄仁勋:Blackwell系统是作为一个机架进行设计和架构的,但它是以分散的系统组件形式出售的,我们不卖整个机架。原因是每家公司的机架都有不同,有些是开放计算项目(OCP)标准,有些不是,而有些是企业级的机架,而且各家数据中心的功率限制可能也有不同。冷却分配单元(CDU)的选择、电源母线的选择、配置以及与人们的数据中心的集成方式都各不相同。所以,我们设计它的方式是,对整个机架进行架构设计,软件能够在整个机架上完美运行,然后我们提供系统组件。

例如,CPU和GPU计算板被集成到MGX中,这是一个模块化系统架构,MGX是非常巧妙的设计,我们在全球各地都有MGX的原始设计制造商(ODM)、集成商和原始设备制造商(OEM)。所以,无论是任何你想要的配置,还是客户希望3000磅重的机架被交付到哪里,我们都将交付到距离最近的位置,像是如此重的设备必须在靠近数据中心的地方进行集成和组装。从供应链的角度来看,就是从我们发货GPU、CPU、交换机、网络接口卡(NIC)的那一刻,到在非常靠近云服务提供商(CSP)和数据中心的位置完成集成工作。

大家可以想象世界上有多少个数据中心,以及我们与ODM合作伙伴扩展到了多少个物流枢纽。我们会把产品展示为一个机架,而且它一直也是以那种方式呈现和展示,这样可能就给别人留下了我们在进行集成的印象。但其实我们的客户不喜欢我们去做集成的工作,供应链也不喜欢,因为我们会抢了他们的工作,那本应该是他们获取附加值的领域。我们有一个庞大的 ODM 和 OEM 合作伙伴网络,他们在这方面做得非常出色。我们不想成为集成商,我们想成为的是技术提供商。(完)

加载中...