美东时间周三盘后,英伟达(NVDA.US)在2025财年第四季度财报电话会议上表示,当前,GB200的推广进展顺利,尽管面临复杂性挑战,但需求强劲。公司成功提高了Grace Blackwell的产量,上个季度实现了约110亿美元的收入。公司将继续扩大规模,应对客户对Blackwell系统的需求。
毛利率方面,英伟达执行副总裁兼首席财务官 Colette Kres称:“Blackwell产能提升期间,毛利率会在70%出头。目前,公司正专注于加快生产速度,以确保能够尽快为客户提供产品。Blackwell已经全面提升产能,一旦产能提升,公司就可以降低成本并改善毛利率。因此,预计今年晚些时候的毛利率可能会达到75%左右。”
对于第二代产品Blackwell Ultra,黄仁勋表示,第一代Blackwell出现的小问题已经完全恢复,下一趟列车将以年度节奏推出,Blackwell Ultra配备新网络、新内存以及新处理器,所有这些都将上线。在英伟达3月举行的GTC大会上,Blackwell Ultra、Verarubin以及更多真正令人兴奋的新产品将会出现。
对未来市场需求,他表示,无论是短期信号还是中期信号都支撑其信心。短期信号是订单和预测等。中期信号是,与前几年相比,基础设施和资本支出的水平有所扩大。长期信号与这样一个事实有关,软件从根本上已经从在 CPU 上运行的手工编码转变为在 GPU 和加速计算系统上运行的机器学习和基于人工智能的软件。
Q&A
Q:我想对Judson来说,随着测试时间计算和强化学习显示出如此大的前景,我们显然看到训练和推理之间的界限越来越模糊,这对潜在的未来专用推理集群意味着什么?您如何看待NVIDIA NVIDIA对您的客户的整体影响?
A:现在有多个扩展定律。有预训练扩展定律,这将继续扩展,因为我们有多模态,我们有来自推理的数据,现在用于预训练,然后是第二个后训练,使用强化学习人类反馈、强化学习AI反馈、强化学习可验证的奖励,您用于后训练的计算量实际上高于预训练。
从某种意义上说,这是有道理的,因为您可以在使用强化学习时生成大量的合成数据或合成生成的token,AI模型基本上是在生成token来训练AI模型。
第三部分,这是您提到的部分,测试时间计算或推理长程思维,有思维链,您有搜索,生成的token数量,所需的推理计算量已经比最初的大型语言模型的一次性示例和一次性能力多100倍,而这仅仅是开始。这仅仅是开始。下一代可能会有数千倍,甚至希望是非常周到和基于模拟和基于搜索的模型,其计算量可能是今天的数十万倍、数百万倍。就在我们的未来。所以问题是如何设计这样的架构?有些模型是自回归的。有些模型是基于扩散的,有些时候您希望您的数据中心具有分离的推理,有时它是紧凑的。
因此,很难确定数据中心的最佳配置是什么,这就是为什么NVIDIA的架构如此受欢迎的原因,我们运行每个模型,我们擅长训练,我们今天的大部分计算实际上是推理,Blackwell将所有这些都提升到一个新的水平。我们在设计时考虑到了推理模型。当您查看训练时,它的性能要高出许多倍,但真正令人惊奇的是,对于长程思维、测试时间扩展推理AI模型,我们的速度要快数十倍,吞吐量高25倍,因此Blackwell将在各个方面都令人难以置信,当您有一个数据中心时,它允许您根据您现在正在进行更多的预训练、进行后训练来配置和使用您的数据中心,或者扩展您的推理,我们的架构是可互换的,并且易于以所有这些不同的方式使用。因此,我们实际上看到比以往任何时候都更加集中地使用统一架构。
Q:我想知道您是否可以谈谈CES上的GB200。您在某种程度上谈到了机架级系统的复杂性以及您所面临的挑战。然后正如您在准备好的发言中说的那样,我们已经看到了很多普遍的可用性。您在那个斜坡上的什么位置?除了芯片级别之外,在系统级别上是否仍然存在需要考虑的瓶颈?只是您是否仍然对NVL-72平台保持热情?
A:我今天比在CES上更乐观。原因是我们交付了更多。我们有大约350个工厂制造进入其中每个工厂的150万个组件,是的,这非常复杂,我们成功且令人难以置信地提高了 Blackwell的产量,上个季度交付了约110亿美元的收入。
我们将不得不继续扩大规模,因为需求非常高,客户渴望且迫不及待地想要获得他们的Blackwall系统。您可能已经在网络上看到了一些关于Grace Blackwell系统上线的庆祝活动,Coreweave现在已经公开了他们成功启动的消息,Microsoft当然有,OpenAI也有,您开始看到许多上线。我们做得很好,我们所有的合作伙伴也做得很好。
Q:第一季度是否是毛利率的底部?什么能让您有信心强劲的需求可以持续到明年?DeepSeek和他们提出的任何创新是否以任何方式改变了这种观点?
A:在我们的Blackwell量产期间,我们的毛利率将处于70%的低位。在这一点上,我们专注于加快我们的制造速度。加快我们的制造速度是为了确保我们可以尽快为客户提供服务。Blackwell完全量产后我们可以提高我们的成本和毛利率。因此,我们预计今年晚些时候可能会达到70%的中段。回顾您听到的Johnson谈论的系统及其复杂性,它们在某些情况下是可定制的。它们有多个网络选项。有液冷和水冷。因此,我们知道我们有机会在未来提高这些毛利率。但现在,我们将专注于尽快完成制造并交付给我们的客户。
我们对数据中心正在建设的资本投资额有一个相当好的了解。我们知道,展望未来,绝大多数软件将基于机器学习。作为开发AI领域下一个突破的新机会,无论是代理AI、推理AI还是物理AI。初创公司的数量仍然非常活跃,每个公司都需要相当数量的计算基础设施。因此,无论是近期信号还是中期信号,长期信号,我们从根本上知道软件已经改变这一事实有关。从在CPU上运行的编码到在GPU和加速计算上运行的基于机器学习和AI的软件。加速计算系统是软件的未来。然后对于应用,首先是AI和搜索以及一些消费者生成式AI、广告,有点像软件的早期阶段。下一个浪潮即将到来。用于企业的Agent AI,用于机器人技术的物理AI,以及主权AI,因为不同的地区为他们自己的生态系统构建AI。因此,这些都几乎刚刚起步,我们才刚刚开始。
Q:Blackwall Ultra计划于今年下半年推出。与团队的年度产品节奏一致鉴于您仍在量产当前一代的Blackwell解决方案,您能否帮助我们了解Ultra的需求动态。您的客户和供应链如何管理这两种产品的同步量产?团队是否仍在按计划在今年下半年执行Blackwell Ultra?
A:Blackwall Ultra是下半年,如您所知,第一款Blackwell我们遇到了一些小问题,可能花费了我们几个月的时间。我们当然已经完全恢复了。团队做得很棒,我们所有的供应链合作伙伴和很多人都帮助我们以光速恢复了。因此,现在我们已经成功地提高了Blackwell的产量。但这并不能阻止下一次产品发布,按年度节奏运行,Blackwell Ultra具有新的网络、新的存储器,当然还有新的处理器,所有这些都即将上线。
这次在Blackwell和Blackwell Ultra之间,系统架构完全相同。从Hopper到Blackwell要困难得多,因为我们从NV NVLink 8系统转变为NVL72的基本系统。因此,机箱、系统的架构、硬件、电源,所有这些都必须改变。这是一个相当具有挑战性的过渡。
下一次过渡将更快。Blackwall Ultra将直接插入。我们还已经透露,并且一直在与我们所有的合作伙伴密切合作,之后的产品为Rubin。我们所有的合作伙伴都在加速过渡。因此,来GTC,我将与您讨论Blackwell Ultra,以及真正、真正令人兴奋的新产品。
Q:您能否谈谈定制ASIC和商用GPU之间的平衡?我们听到了一些使用GPU和ASIC的异构超级集群的消息。客户是否计划构建这些基础设施,还是这些基础设施将保持相当的水平?
A:我们构建的东西与ASIC非常不同。在某些方面,完全不同,在某些领域,我们有所交叉。我们有几个不同之处。首先,NVIDIA的架构是通用的。无论您是为非回归模型、基于扩散的模型、基于视觉的模型、多模态模型还是文本模型进行优化,它在所有模型中都表现出色。我们在所有模型中都表现出色,因为我们的软件堆栈非常丰富,我们的架构投研学习关注工众号有 道调研非常灵活,我们的软件堆栈生态系统非常丰富,以至于我们是大多数令人兴奋的创新和算法的最初目标。因此,根据定义,我们比狭隘的范围要通用得多。我们也非常擅长端到端。从数据处理、训练数据的管理到数据的训练,当然还有用于后训练的强化学习,一直到测试时间扩展的推理。因此,我们是通用的、端到端的。我们无处不在。因为我们不仅仅在一个云中,我们在每个云中,我们可以在本地,我们可以在机器人中。我们的架构更容易访问。并且对于任何启动新公司的人来说,都是一个很好的初始目标。因此,无处不在。然后我想说的第三件事是,我们的性能和节奏非常快。请记住,这些数据中心的大小始终是固定的。
它们的大小是固定的,或者它们的功率是固定的。如果我们的每瓦性能在2倍到4倍到8倍之间,这并不罕见。它可以直接转化为收入。因此,如果您有一个100兆瓦的数据中心,如果该100兆瓦或千兆瓦数据中心的性能或吞吐量高4倍或8倍,那么该千兆瓦数据中心的收入将高8倍。这与过去的数据中心如此不同的原因是,AI工厂可以通过其生成的token直接货币化。因此,我们的架构的token吞吐量如此之快,对于所有出于收入生成原因而构建这些东西的公司来说,都非常有价值。
并获得快速的投资回报率,因此我认为第三个原因是性能。
然后我想说的最后一件事是,软件堆栈非常困难。构建ASIC与我们所做的事情没有什么不同。我们必须构建一个新的架构。并且位于我们架构之上的生态系统今天比两年前复杂10倍。这非常明显,因为世界在我们的架构之上构建的软件量呈指数级增长,并且AI的发展非常迅速。因此,将整个生态系统放在多个班次之上是非常困难的。因此,我想说的是这四个原因,最后,我要说的是,仅仅因为芯片被设计出来并不意味着它会被部署。您已经一次又一次地看到我们。有很多班次被构建出来。但是当时间到来时,必须做出商业决策。该商业决策是关于将一个新的引擎、一个新的处理器部署到大小有限的AI工厂中,并且[听不清]和精细。我们的技术不仅更先进、性能更高,而且具有更好的软件功能,最重要的是,我们能够以闪电般的速度进行部署。
Q:您在解释一些潜在的需求因素方面做得很好,这些因素是美国上涨约50亿美元左右的原因。我认为有人担心,如果对其他地区有法规,美国是否可以弥补这一缺口。我只是想知道,随着我们全年推进,美国是否会继续出现这种激增,以及这是否可以。如果这构成了您的增长率的基础,那么在这种向美国转移的情况下,您如何才能保持如此快速的增长?您的指导表明中国可能会连续增长。因此,只是想知道您是否可以分析一下这种动态
A:中国约占与第四季度相同的百分比。与之前的季度相同。大约是出口管制之前的一半。但百分比大致相同。关于地理位置,要点是AI是软件。它是现代软件。它是令人难以置信的现代软件。但它是现代软件。AI已经成为主流。AI无处不在地用于交付服务,无处不在地用于购物服务,如果您要购买四分之一加仑的牛奶,AI会将其交付给您,AI已经发展。
因此,消费者[听不清]的几乎所有东西都位于其核心。每个学生都会使用AI作为导师。医疗保健服务使用AI,金融服务使用AI。没有一家金融科技公司不会使用AI。每家金融科技公司都会使每个高等教育机构、每所大学都在使用AI。因此,我认为可以相当肯定地说,并且它正在被集成到每个应用程序中[听不清][听不清]我们的希望是,当然,技术继续安全地发展并以有用的方式发展[听不清]有了这个,我确实相信我们正处于这个新过渡的开始。我所说的开始是指,正如您所记得的那样,在我们身后[听不清]已经有数十年的数据中心和数十年的计算机被构建出来。它们是为手动编码和通用计算的世界而构建的。以及CPU等等。展望未来,我认为可以相当肯定地说,那个世界几乎所有的软件都将注入AI。所有软件和所有服务都将最终基于机器学习。数据飞轮将成为改进软件和服务的一部分。
并且未来的计算机将是加速的。未来的计算机将基于AI。我们真正进入这个旅程已经三年了。并且正在对已经花费数十年时间构建的计算机进行现代化改造。因此,我相当确定我们正处于这个新时代的开始。最后,没有任何技术有机会像AI那样解决更大一部分世界GDP的问题。没有任何软件工具曾经这样做过。因此,这现在是一个软件工具,可以解决比历史上任何时候都更大一部分世界GDP的问题。因此,我们思考增长的方式以及我们思考某件事是大还是小的方式。
Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.