时间: 2025-03-03 06:51:10 | 作者: 乐鱼电竞
发布2025财年第四财季及全年财报。报告数据显示,英伟达第四财季营收393.31亿美元,同比增长78%,环比增长12%;净利润220.91亿美元,同比增长80%,环比增长14%;不按照美国通用会计准则调整后净利润220.66亿美元,同比增长72%,环比增长10%。
下午好。我叫 Krista,今天我将担任您的会议主持人。现在,我欢迎各位参加 NVIDIA 第四季度财务报表电话会议。所有线路都已静音,以防止任何背景噪音。
演讲者发言后,将进行问答环节。[操作员指示] 谢谢。Stewart Stecker,您能开始您的会议了。
谢谢。大家下午好,欢迎参加 NVIDIA 2025 财年第四季度电话会议。今天与我一起参加会议的还有 NVIDIA 总裁兼首席执行官黄仁勋和执行副总裁兼首席财务官 Colette Kress。我想提示警醒我们,我们的电话会议将在 NVIDIA 投资者关系网站上进行网络直播。
网络直播将可重播,直至电线 财年第一季度的财务业绩。今天电话会议的内容属于 NVIDIA 的财产。未经事先书面同意,不得复制或转录。在本次电话会议中,我们可能会根据当前预期做出前瞻性陈述。
这些因素受多种重大风险和不确定因素的影响,我们的实际结果有几率存在重大差异。有关可能影响我们未来财务业绩和业务的因素的讨论,请参阅今天的收益报告中的披露、我们最新的 10-K 和 10-Q 表格以及我们可能向美国证券交易委员会提交的 8-K 表格报告。我们所有的声明都是截至今天(2025 年 2 月 26 日)基于我们目前掌握的信息做出的。除非法律要求,否则我们不承担更新任何此类声明的义务。
在本次电话会议中,我们将讨论非 GAAP 财务指标。在我们的 CFO 评论中,我们将限制将这些非 GAAP 财务指标与 GAAP 财务指标进行对账,该评论已发布在我们网站上。现在,我将电话转给科莱特。
谢谢,斯图尔特。第四季度又创下了纪录。收入为 393 亿美元,环比增长 12%,同比增长 78%,高于我们预期的 375 亿美元。2025 财年收入为 1305 亿美元,比上年增长 114%。
让我们从数据中心开始。2025 财年的数据中心收入为 1152 亿美元,比上一年增长了一倍多。第四季度,数据中心收入创下 356 亿美元的纪录,环比增长 16%,同比增长 93%,因为 Blackwell 产能开始提升,Hopper 200 继续保持环比增长。第四季度,Blackwell 的销售额超出了我们的预期。
我们实现了 110 亿美元的 Blackwell 收入,以满足强劲的需求。这是我们公司历史上最快的产品增长,速度和规模都是前所未有的。Blackwell 全年生产多种配置,我们正在增加供应,迅速扩大客户采用率。我们的第四季度数据中心计算收入环比增长 18%,同比增长超过 2 倍。
客户正在竞相扩展基础设施,以训练下一代尖端模型并解锁更高级别的 AI 功能。借助 Blackwell,这些集群通常以 100,000 个或更多 GPU 开始。多个这种规模的基础设施慢慢的开始出货。随着研发人员和企业利用微调强化学习和提炼等技术来为特定领域的用例定制模型,后期训练和模型定制正在推动对 NVIDIA 基础设施和软件的需求。
仅 Hugging Face 就托管了来自 Llama 基础模型的 90,000 多个衍生产品。训练后和模型定制的规模非常庞大,总体上需要的计算量比训练前多出几个数量级。我们的推理需求正在加速增长,这得益于测试时间扩展和 OpenAI 的 o3、DeepSeek-R1 和 Grok 3 等新推理模型。与一次性推理相比,长期推理 AI 每项任务所需的计算量可能多 100 倍。
Blackwell 专为推理 AI 推理而设计。与 Hopper 100 相比,Blackwell 可增强推理 AI 模型,令牌吞吐量最高可提高 25 倍,成本降低 20 倍。它的革命性转换引擎专为 LLM 和专家混合推理而构建。其 NVLink 域可提供 14 倍于 PCIe Gen 5 的吞吐量,确保响应时间、吞吐量和成本效率,以应对规模一直增长的复杂性。
各行各业的公司都在利用 NVIDIA 的整个 STAG 推理平台来提高性能并削减成本。现在,使用 NVIDIA TensorRT 实现其屏幕截图功能,推理吞吐量提高了三倍,成本降低了 66%。Perplexity 每月有 4.35 亿次查询,并使用 NVIDIA Triton 推理服务器和 TensorRT-LLM 将推理成本降低了 3 倍。借助 NVIDIA、TensorRT 和加速库,Microsoft Bing 在数十亿张图像的视觉搜索中实现了 5 倍的速度提升,同时大幅节省了 TCO。
Blackwell 对推理的需求很大。许多早期的 GB200 部署都专门用于推理,这是新架构的首次部署。Blackwell 涵盖了整个 AI 市场,从预训练、后训练到跨云、本地和企业的推理。CUDA 的可编程架构可加速每个 AI 模型和超过 4,400 个应用程序,确保大型基础设施投资不会在加快速度进行发展的市场中过时。
我们的业绩和创新速度无与伦比。仅在过去两年内,我们就将推理成本降低了 200 倍。我们实现了最低的 TCO 和最高的 ROI。针对 NVIDIA 和我们庞大的生态系统(包括 590 万名研发人员)的全栈优化逐步的提升客户的经济效益。
在第四季度,大型 CSP 约占我们数据中心收入的一半。这些销售额同比增长近 2 倍。大型 CSP 是首批与 Blackwell 并肩作战的公司之一,它们通过 Azure、GCP、AWS 和 OCI 将 GB200 系统引入全球云区域,以实现用户对 AI 的某些激增需求。托管 NVIDIA GPU 的区域云占数据中心收入的百分比有所增加,这反映了全球 AI 工厂的持续建设以及对 AI 推理模型和代理的需求迅速增长。
我们利用 NVLink Switch 和 Quantum 2 InfiniBand 启动了 100,000 个基于 GB200 集群的事件。受生成式 AI 和深度学习用例持续不断的增加的推动,消费者互联网收入同比增长了 3 倍。这些用例包括推荐系统、视觉、语言理解、合成数据生成搜索和代理式 AI。例如,xAI 正在采用 GB200 来训练和推理其下一代 Grok AI 模型。
Meta 的尖端 Andromeda 广告引擎运行在 NVIDIA 的 Grace Hopper 超级芯片上,为 Instagram、Facebook 应用程序中的大量广告提供服务。Andromeda 利用 Grace Hopper 的快速互连和大内存将推理吞吐量提高了 3 倍,增强了广告个性化,并实现了货币化和投资回报率的显著提升。由于对模型微调、RAG 和代理 AI 工作流以及 GPU 加速数据处理的需求一直增长,企业收入同比增长了近 2 倍。我们推出了 NVIDIA Llama Nemotron 模型系列 NIM,以帮助研发人员在包括客户支持、欺诈检测和产品供应链和库存管理在内的一系列应用程序中创建和部署 AI 代理。
领先的 AI 代理平台提供商(包括 SAP 和 ServiceNow)是首批使用新模型的公司之一。医疗保健领导者 IQVIA、Illumina、Mayo Clinic 和 Arc Institute 正在使用 NVIDIA AI 加速药物发现、增强基因组研究,并通过生成和代理 AI 开拓先进的医疗保健服务。随着 AI 扩展到数字世界之外,NVIDIA 基础设施和软件平台慢慢的变多地被用于支持机器人和物理 AI 开发。作为最早和最大的机器人应用和无人驾驶汽车之一,几乎每个 AV 公司都在数据中心、汽车或两者中使用 NVIDIA 进行开发。
预计本财年 NVIDIA 的汽车垂直收入将增长至约 50 亿美元。在 CES 上,现代汽车集团宣布将采用 NVIDIA 技术来加速无人驾驶汽车和机器人技术的发展以及智能工厂计划。视觉转换器、自我监督学习、多模态传感器融合和高保真模拟正在推动无人驾驶汽车发展的突破,并且将需要 10 倍以上的计算能力。在 CES 上,我们宣布了 NVIDIA COSMO World Foundation 模型平台。
正如语言和基础模型彻底改变了语言 AI,Cosmos 是一种彻底改变机器人技术的物理 AI。包括拼车巨头 Uber 在内的机器人和汽车公司是首批采用该平台的公司之一。从地域角度来看,我们的数据中心收入连续增长在美国最为强劲,这得益于 Blackwell 的初始增长。随着对计算基础设施的需求激增,全球各国都在构建自己的 AI 生态系统。
法国 1000 亿欧元的人工智能投资和欧盟 2000 亿欧元的人工智能资本预算让我们得以一窥未来几年全球AI基础设施的重新定义。目前,作为数据中心总收入的百分比,中国数据中心销售额仍远低于出口管制开始时的水平。如果法规没有一点变化,我们始终相信中国出货量将大致保持在当前百分比。中国数据中心解决方案市场仍然竞争激烈。
我们将继续遵守出口管制,同时为客户提供服务。网络收入环比下降 3%。我们与 GPU 计算系统相连的网络稳定在 75% 以上。我们正在从使用 InfiniBand 的小型 NVLink 8 过渡到使用 Spectrum-X 的大型 NVLink 72。
Spectrum-X 和 NVLink Switch 收入有所增加,代表着一个重要的新增长点。我们预计网络将在第一季度恢复增长。AI 需要一种新型网络。NVIDIA 提供用于扩展计算的 NVLink Switch 系统。
昨天,思科宣布将 Spectrum-X 整合到其网络产品组合中,以帮企业构建 AI 基础设施。凭借其庞大的企业足迹和全球影响力,思科将把 NVIDIA 以太网带入每个行业。现在,转向游戏和ARPC。游戏收入为 25 亿美元,环比下降 22%,同比下降 11%。
全年收入 114 亿美元,同比增长 9%,假期期间需求依然强劲。然而,第四季度出货量受到供应限制的影响。随着供应增加,我们预计第一季度将出现强劲的环比增长。新款 GeForce RTX 50 系列台式机和笔记本电脑 GPU 现已上市。
专为游戏玩家、创作者和开发者打造,融合了 AI 和图形,重新定义了视觉计算,由 Blackwell 架构、第五代 Tensor 核心和第四代 RT 核心提供支持,并配备 UQs400AI 顶级产品。这些 GPU 实现了 2 倍性能飞跃和新的 AI 驱动渲染,包括神经着色器、数字人技术、几何和照明。新的 DLSS 4 通过 AI 驱动的帧生成将帧速率提高高达 8 倍,将一个渲染帧变成三个。它还具有业界首个实时应用的 Transformer 模型,该模型的参数增加了 2 倍,计算量增加了 4 倍,实现了前所未有的视觉保真度。
我们还宣布推出一系列 GeForce Blackwell 笔记本电脑 GPU,采用全新 NVIDIA Max-Q 技术,可将电池续航时间延长 40%。这些笔记本电脑将于 3 月开始由全球顶级制造商提供。转向我们的专业可视化业务。收入为 5.11 亿美元,环比增长 5%,同比增长 10%。
全年收入 19 亿美元,同比增长 21%。推动需求的关键垂直行业包括汽车和医疗保健。NVIDIA 技术和生成式 AI 正在重塑设计、工程和模拟工作负载。这些技术慢慢的变多地被 ANSYS、Cadence 和西门子的领先软件平台所利用,从而推动了对 NVIDIA RTX 工作站的需求。
现在,我们来看看汽车业务。收入达到创纪录的 5.7 亿美元,环比增长 27%,同比增长 103%。全年收入 17 亿美元,同比增长 5%。强劲增长的推动力是无人驾驶汽车(包括汽车和机器人出租车)的持续增长。
在 CES 上,我们宣布全球最大的汽车制造商丰田将在运行经过安全认证的 NVIDIA DriveOS 的 NVIDIA Orin 上打造其下一代汽车。我们宣布 Aurora 和 Continental 将大规模部署由 NVIDIA Drive Thor 驱动的无人驾驶卡车。最后,我们的端到端无人驾驶汽车平台 NVIDIA Drive Hyperion 已通过行业安全评估,例如 TUV SUD 和 TUV Rheinland,这两个机构是汽车级安全和网络安全领域的两大权威机构。NVIDIA 是第一个获得全面第三方评估的 AV 平台。
好的。转到损益表的其余部分。GAAP 毛利率为 73%,非 GAAP 毛利率为 73.5%,并且随着我们首次交付 Blackwell 架构,环比下降,符合预期。正如上个季度所讨论的那样,Blackwell 是一种可定制的 AI 基础设施,具有多种不一样的 NVIDIA 构建芯片、多种网络选项,以及用于空气和液体冷却数据中心。
在第四季度,我们在 Blackwell 产能提升、系统可用性提高以及为客户提供多种配置方面的表现超出了预期。随着 Blackwell 产能提升,我们预计毛利率将达到 75% 出头。最初,我们专注于加快 Blackwell 系统的制造,以实现用户在竞相建设 Blackwell 基础设施时的强烈需求。产能全方面提升后,我们有很多机会来减少相关成本,毛利率将在本财年末回升至 75% 左右。
环比来看,GAAP 运营费用增长 9%,非 GAAP 运营费用增长 11%,这反映了工程开发成本的增加以及新产品推出的计算和基础设施成本的增加。第四季度,我们以股票回购和现金股息的形式向股东返还了 81 亿美元。让我谈谈第一季度的前景。预计总收入为 430 亿美元,上下浮动 2%。
由于需求强劲,我们预计 Blackwell 在第一季度将大幅度增长。我们预计数据中心和游戏业务将实现连续增长。在数据中心领域,我们预计计算和网络业务将实现连续增长。预计 GAAP 和非 GAAP 毛利率分别为 70.6% 和 71%,上下浮动 50 个基点。
预计 GAAP 和非 GAAP 运营费用分别约为 52 亿美元和 36 亿美元。我们预计 26 财年全年运营费用将增长至 35% 左右。预计 GAAP 和非 GAAP 另外的收入费用约为 4 亿美元。不包括非流通股本证券和公开持有的股权证券的收益和损失。
预计 GAAP 和非 GAAP 税率为 17%,上下浮动 1%,不包括任何单项项目。更多财务细节包含在 CFO 评论和我们 IR 网站上提供的别的信息中,包括新的财务信息 AI 代理。最后,让我重点介绍一下金融界即将举办的活动。我们将于 3 月 3 日参加在波士顿举行的 TD Cowen 医疗保健会议,并于 3 月 5 日参加在旧金山举行的摩根士丹利技术、媒体和电信会议。
欢迎参加我们于 3 月 17 日星期一在加利福尼亚州圣何塞举行的年度 GTC 会议。Jensen 将于 3 月 18 日发表一场新闻丰富的主题演讲,我们将于第二天即 3 月 19 日为我们的财务分析师举办问答环节。我们期待在这些活动中见到您。我们将于 2025 年 5 月 28 日召开财报电线 财年第一季度的业绩。
是的。下午好。感谢您回答这样的一个问题。詹森,我想对我来说,随着测试时间计算和强化学习显示出如此大的前景,我们清楚地看到训练和推理之间的界限越来越模糊。
这对于潜在的推理专用集群的未来意味着什么?您怎么样看待对 NVIDIA 和您的客户的整体影响?谢谢。
是的,我很欣赏这一点,CJ。现在有多种扩展法则。有预训练扩展法则,它将继续扩展,因为我们拥有多模态性,我们有来自推理的数据,现在用于进行预训练。然后第二个是训练后技能,使用强化学习人工反馈、强化学习 AI 反馈、强化学习、可验证奖励。
训练后使用的计算量实际上高于预训练。这在某一些程度上是合理的,因为在使用强化学习时,你可以生成大量合成数据或合成生成的代币。人工智能模型绝大多数都是在生成代币来训练人工智能模型。这就是交易后。
第三部分,也就是您提到的测试时计算或推理、长时间思考、推理扩展。它们大多数都是相同的想法。在那里,您有一个思路,您有搜索。生成的标记数量和所需的推理计算量已经是一开始的一次性示例和大型语言模型的一次性能力的 100 倍。
而这仅仅是个开始。这只是个开始。下一代可能拥有比现在多数千倍,甚至希望是极其周到的、基于模拟和基于搜索的模型,其计算能力可能比现在高出数十万倍、数百万倍,这是我们的未来。所以,问题是,你如何设计这样的架构?其中一些——一些模型是自回归的。
有些模型是基于扩散的。有些模型——有时你希望你的数据中心有分解推理。有时,它是压缩的。因此,很难弄清楚数据中心的最佳配置是什么,这就是 NVIDIA 的架构如此受欢迎的原因。
我们运行每个模型。我们擅长训练。我们目前绝大部分的计算其实就是推理,而 Blackwell 将所有这些都提升到了一个新水平。我们在设计 Blackwell 时就考虑到了推理模型。
而当你看训练时,它的性能要高出很多倍。但真正令人惊奇的是,对于长期思考测试时间扩展,推理 AI 模型的速度提高了数十倍,吞吐量提高了 25 倍。因此,Blackwell 将在每个方面都令人难以置信。当你拥有一个数据中心,它允许你根据你现在要不要进行更多的预训练、现在要不要进行后训练或扩展你的推理来配置和使用你的数据中心时,我们的架构是可互换的,并且易于以所有这些不同的方式使用。
实际上是摩根士丹利。谢谢。我想知道您是不是能够在 CES 上谈论 GB200,您谈到了机架级系统的复杂性以及您面临的挑战。然后正如您在准备好的发言中所说,我们已看到了很多普遍的可用性。
就这一增长而言,您目前处于什么阶段?除了芯片级之外,系统级是否还存在需要仔细考虑的瓶颈?您是否从始至终保持着对 NVL72 平台的热情?
嗯,我今天比在 CES 上更兴奋。这是因为自 CES 以来,我们的发货量大幅度的增加。我们有大约 350 家工厂生产 Blackwell 机架(Grace Blackwell 机架)所需的 150 万个零部件。是的,这非常复杂。
我们成功且令人难以置信地扩大了 Grace Blackwell 的规模,上个季度实现了约 110 亿美元的收入。由于需求量很大,客户急切地想要获得他们的 Blackwell 系统,因此我们一定要继续扩大规模。您可能在网上看到过很多庆祝 Grace Blackwell 系统上线的庆祝活动,当然,我们也拥有这些系统。我们为自己的工程团队、设计团队和软件团队安装了相当多的 Grace Blackwell。
CoreWeave 现在已经公开宣布了他们的成功。微软当然有,OpenAI 也有,而且你开始看到很多公司上线。所以,我认为你的问题的答案是,我们所做的事情并不是特别容易,但我们做得很好,我们所有的合作伙伴都做得很好。
感谢您回答我的问题。Colette,您能否确认一下第一季度的毛利率是不是已经触底?然后是 Jensen,我的问题是问您的。您的仪表板上有什么让您有信心强劲的需求能持续到明年?DeepSeek及其提出的任何创新是否改变了这种观点?谢谢。
好吧,首先让我回答关于毛利率的问题的第一部分。在我们的 Blackwell 产能提升期间,我们的毛利率将在 70% 左右。目前,我们正专注于加快生产速度,加快生产速度以确保我们也可以尽快向客户提供产品。我们的 Blackwell 是全圆形的。
一旦实现——抱歉,一旦我们的 Blackwell 全面投入到正常的使用中,我们就能改善成本和毛利率。因此,我们预计今年晚些时候可能会达到 75% 左右。正如 Jensen 所言,这些系统及其复杂性在某些情况下是可定制的。它们有多种网络选项。
他们有液冷和水冷。所以,我们大家都知道未来有机会提高这些毛利率。但现在,我们将专注于尽快完成制造并交付给客户。
我们大家都知道几件事,Vivek。我们对数据中心建设的资本投资额有相当好的了解。我们大家都知道,未来绝大多数软件将基于机器学习。因此,加速计算和生成 AI、推理 AI 将成为您在数据中心中想要的架构类型。
当然,我们拥有来自顶级合作伙伴的预测和计划。我们还知道,仍有许多创新、真正令人兴奋的初创公司涌现,它们为开发人工智能的下一个突破提供了新的机会,无论是代理人工智能、推理人工智能还是物理人工智能。初创公司的数量仍然相当活跃,每家公司都需要相当数量的计算基础设施。所以,我认为——无论是短期信号还是中期信号,短期信号当然是 PO 和预测之类的东西。
中期信号将是与前几年相比基础设施和资本支出的扩展水平。然后,长期信号与以下事实有关:我们知道软件从根本上已经从在 CPU 上运行的手工编码转变为在 GPU 和加速计算系统上运行的机器学习和基于 AI 的软件。因此,我们很清楚这是软件的未来。然后,也许当你推出它时,另一种思考方式是,我们实际上只利用了消费者 AI 和搜索以及少数的消费者生成 AI、广告、推荐器,这些都属于软件的早期阶段。
下一波浪潮马上就要来临,企业级的代理 AI、机器人级的物理 AI 和主权 AI,因为不一样的地区会为自己的ECO构建 AI。因此,这些 AI 都刚刚起步,我们大家可以看到它们。我们能够正常的看到它们,因为很明显,我们处于这一发展的中心,我们大家可以看到在所有这些不同的地方都发生了巨大的活动,这些活动将会发生。所以,短期、中期和长期都是如此。
是的。下午好。感谢您回答我的问题。您的下一代 Blackwell Ultra 将于今年下半年推出,与团队的年度产品节奏一致。
Jensen,鉴于您仍将扩大当前一代 Blackwell 解决方案的产量,您能否帮助我们了解 Ultra 的需求动态?您的客户和供应链如何管理这两种产品的同时产量增加?团队是否仍有望在今年下半年推出 Blackwell Ultra?
是的。Blackwell Ultra 是下半场。如你所知,第一场 Blackwell 比赛我们遇到了一些小问题,可能要花几个月的时间。当然,我们已经完全恢复了。
团队在恢复方面做得非常出色,我们所有的供应链合作伙伴和许多人都帮助我们以光速恢复。因此,现在我们已成功提高 Blackwell 的产量。但这并没有阻止下一趟列车的推出。下一趟列车将以年度节奏推出,Blackwell Ultra 配备了新的网络、新的内存,当然还有新的处理器,所有这些都将上线。
我们一直在与所有合作伙伴和客户合作,规划这一计划。他们拥有所有必要的信息,我们将与所有人合作,实现正确的过渡。这次 Blackwell 和 Blackwell Ultra 之间的系统架构完全相同。从 Hopper 到 Blackwell 的过渡要困难得多,因为我们从 NVLink 8 系统过渡到了基于 NVLink 72 的系统。
因此,底盘、系统架构、硬件、电源传输,所有这些都必须改变。这是一个相当具有挑战性的转变。但下一次转变将恰逢 Blackwell Ultra 的到来。我们也已经透露,并正在与所有合作伙伴密切合作,以完成之后的点击。
之后的点击被称为 Vera Rubin,我们所有的合作伙伴都在加快这一过渡,并为这一过渡做准备。同样,我们将提供巨大的进步。所以,来 GTC 吧,我会和你谈谈 Blackwell Ultra、Vera Rubin,然后向你展示我们接下来要做的事情。真正令人兴奋的新产品即将在 GTC 上亮相。
非常感谢。Jensen,我们听到了很多关于定制 ASIC 的消息。您能谈谈客户 ASIC 和商家 GPU 之间的平衡吗?我们听说一些异构超级集群同时使用 GPU 和 ASIC。这是客户计划构建的东西吗?或者这些基础设施将保持相当独特?谢谢。
嗯,我们构建的东西与 ASIC 非常不同,在某些方面,在我们拦截的某些领域完全不同。我们在几个方面都不同。首先,NVIDIA 的架构是通用的,无论您是针对非攻击性模型、基于扩散的模型、基于视觉的模型、多模态模型还是文本模型进行了优化。我们在所有这些方面都很出色。
我们在所有方面都表现出色,因为我们的软件堆栈非常合理——我们的架构非常合理。我们的软件堆栈生态系统非常丰富,以至于我们成为大多数激动人心的创新和算法的初始目标。因此,根据定义,我们的范围要比狭隘的要广得多。从端到端,从数据处理、训练数据的管理到数据的训练,当然,再到训练后使用的强化学习,再到具有严格时间扩展的推理,我们的表现也非常好。
所以,我们是通用的、端到端的,而且无处不在。因为我们不只在一个云中,而是在每个云中,我们大家可以在本地。我们可以在机器人中。我们的架构更容易访问,对于任何创办新公司的人来说,这都是一个很好的初始目标。
所以,我们无处不在。我想说的第三件事是,我们的节奏非常快。请记住,这些数据中心的规模始终是固定的。它们要么规模固定,要么功率固定。
如果我们每瓦的性能是 2 倍、4 倍或 8 倍,这并不罕见,那么这将直接转化为收入。因此,如果您拥有一个 100 兆瓦的数据中心,如果该 100 兆瓦或千兆瓦数据中心的性能或吞吐量高出四倍或八倍,那么该千兆瓦数据中心的收入将高出八倍。这与过去的数据中心如此不同,是因为 AI 工厂可以通过其生成的代币直接货币化。因此,我们架构的代币吞吐量如此之快,对于所有出于创收目的和快速获得投资回报而构建这些东西的公司来说,这非常有价值。
所以,我认为第三个原因是性能。最后我想说的是软件堆栈非常困难。构建 ASIC 与我们所做的没什么不同。我们构建一个新的架构。
如今,我们架构之上的生态系统比两年前复杂 10 倍。这是相当明显的,因为世界在架构之上构建的软件数量呈指数级增长,而且人工智能发展非常迅速。因此,将整个生态系统置于多个芯片之上很难。所以,我会说——有这四个原因。
最后,我要说的是,芯片设计出来了并不意味着它就能部署。这一点大家已经见过很多次了。有很多芯片被制造出来了,但到了时候,必须做出一个商业决策,这个商业决策就是在规模、功率和质量都有限的 AI 工厂中部署一个新引擎、新处理器。我们的技术不仅更先进、性能更高,而且软件功能也好得多,而且非常重要的是,我们的部署能力快如闪电。
所以,这些事情对胆小的人来说已经足够了,现在每个人都知道了。所以,我们之所以表现良好、取得胜利有很多不同的原因。
Jensen,这是一个与地理相关的问题。你很好地解释了一些需求强劲的潜在因素。但美国市场环比增长了约 50 亿美元左右。
我认为,如果对其他地区也实施监管,那么美国是否能够弥补这一不足值得担忧。我只是想知道,随着我们全年的发展,美国的这种激增是否会持续下去,这是否会是可以接受的。
如果这是您增长率的基础,那么在向美国转移业务组合的情况下,您如何保持如此快速的增长?您的指引看起来中国市场可能比上一季度有所增长。所以,我想知道您是否可以谈谈这种动态,也许收集数据可以起到作用。非常感谢。
中国的比例与第四季度和前几个季度大致相同。约为出口管制前的一半。但百分比大致相同。就地域而言,要点是人工智能是软件。
这是现代软件。这是令人难以置信的现代软件,但它是现代软件,人工智能已成为主流。人工智能在各地的送货服务、购物服务中得到应用。如果你买一夸脱牛奶,它就会送到你手中。
人工智能也参与其中。因此,几乎所有消费者服务的核心都是人工智能。每个学生都会使用人工智能作为导师,医疗保健服务使用人工智能,金融服务也使用人工智能。没有一家金融科技公司不使用人工智能。
每家金融科技公司都会这样做。气候科技公司使用人工智能。矿产勘探现在也使用人工智能。每所高等教育机构、每所大学都在使用人工智能,所以我认为可以相当肯定地说,人工智能已经成为主流,并且正在融入到每一个应用程序中。
当然,我们希望技术能够继续安全地发展,并以有益于社会的方式发展。因此,我相信我们正处于这一新转变的开始阶段。我所说的开始阶段是指,请记住,我们已经建立了数十年的数据中心和数十年的计算机。它们是为手工编码、通用计算和 CPU 等世界而构建的。
展望未来,我认为可以相当肯定地说,世界上几乎所有的软件都将融入人工智能。所有软件和服务都将基于机器学习——最终,基于机器学习,数据飞轮将成为改进软件和服务的一部分,未来的计算机将加速发展,未来的计算机将基于人工智能。我们实际上已经踏上这条征程两年了。并且正在对花了几十年时间才建成的计算机进行现代化改造。
因此,我确信我们正处于这个新时代的开始。最后,没有任何技术有机会像人工智能一样解决世界 GDP 的更大部分。没有任何软件工具能够做到这一点。因此,现在这个软件工具可以解决世界 GDP 的更大部分,比历史上任何时候都多。
因此,我们思考增长的方式,以及我们思考某件事是大还是小的方式都必须放在这个背景下。当你退一步从这个角度来看时,你会发现我们才刚刚开始。
Colette 澄清一下。您是否说过 1 月份数据中心内的企业同比增长了 2 倍?如果是这样,那么这是否会使其增长速度超过超大规模企业?然后,Jensen,对于您来说,问题是,超大规模企业是您解决方案的最大购买者,但他们购买设备用于内部和外部工作负载,外部工作流是企业使用的云服务。因此,问题是,您能否让我们了解一下超大规模企业的支出在外部工作负载和内部工作负载之间的分配情况?随着这些新的 AI 工作流和应用程序的出现,您是否希望企业成为该消费组合中更大的一部分?这会影响您开发服务和生态系统的方式吗?谢谢。
当然。感谢您提出有关我们企业业务的问题。是的,它增长了 2 倍,与我们在大型 CSP 中看到的情况非常相似。请记住,这些都是需要了解的重要领域。
与 CSP 合作可以开发大型语言模型,也可以在自己的工作中进行推理。但请记住,这也是企业提供服务的地方。您的企业既与您的 CSP 合作,又可以自行构建。它们都发展得很好。
CSP 约占我们业务的一半。正如您所说,CSP 有内部消费和外部消费。我们正在使用——当然,用于内部消费。我们与他们所有人密切合作,以优化他们内部的工作负载,因为他们拥有大量可以利用的 NVIDIA 设备基础设施。
事实上,一方面我们可以用于 AI,另一方面可以用于视频处理,像 Spark 这样的数据处理,我们是可以互换的。因此,我们的基础设施的使用寿命要长得多。如果使用寿命更长,那么 TCO 也会更低。因此,第二部分是,如果您愿意的话,我们如何看待企业或非 CSP 的增长?答案是,我相信,从长远来看,它要大得多,原因是,如果你看看今天的计算机行业,计算机行业所不服务的东西主要是工业。
让我举个例子。当我们说企业时,让我们以汽车公司为例,因为他们既制造软件产品,也制造硬件产品。因此,在汽车公司的情况下,员工就是我们所说的企业和代理 AI 以及软件规划系统和工具,我们在 GTC 上有一些非常令人兴奋的事情要与你们分享,为员工构建代理系统是为了提高员工的工作效率,设计市场计划来运营他们的公司。这就是代理 AI。
另一方面,他们生产的汽车也需要人工智能。他们需要一个人工智能系统来训练汽车,处理整个庞大的车队。今天,路上有 10 亿辆汽车。总有一天,路上会有 10 亿辆汽车,每一辆都将成为机器人汽车,它们都会收集数据,我们将使用人工智能工厂来改进它们。
如今,他们拥有一家汽车工厂,而未来,他们将拥有一家汽车工厂和一家人工智能工厂。汽车内部本身就有一个机器人系统。所以,正如你所看到的,这里面有三台计算机,其中一台计算机可以帮助人们。还有一台计算机为机器构建人工智能,这些机器当然可以是拖拉机,也可以是割草机。
它可能是当今正在开发的人类或机器人。它可能是一栋建筑。它可能是一座仓库。这些物理系统需要一种新型的人工智能,我们称之为物理人工智能。
它们不仅要理解单词和语言的含义,还要理解世界的含义、摩擦和惯性、物体的永久性以及因果关系。所有这些事情对你我来说都是常识,但人工智能必须学习这些物理效应。所以我们称之为物理人工智能。使用代理人工智能彻底改变公司内部工作方式的整个过程才刚刚开始。
现在正是代理人工智能时代的开始,你听到很多人谈论它,而且我们正在做一些非常棒的事情。之后是物理人工智能,之后是机器人系统。所以,这三台计算机都是全新的。我的感觉是,从长远来看,这将是一个规模更大的商场,这在某种程度上是有道理的。
是的。谢谢你让我回来。詹森,我很好奇,因为我们现在即将迎来霍珀拐点的两周年纪念日,你在 2023 年看到了 GenAI 的普遍变化。当我们考虑摆在我们面前的路线图时,你如何从替换周期的角度看待已经部署的基础设施,以及它是 GB300 还是鲁宾周期,我们开始看到一些更新机会?我只是好奇你是如何看待这一点的。
是的。我很感激。首先,人们仍在使用 Voltas、Pascals 和 Amperes。原因是,由于 CUDA 可编程性强,所以总有一些东西可以使用。Blackwell,目前的主要用例之一是数据处理和数据管理。
你发现 AI 模型不太擅长处理某种情况。你将这种情况呈现给视觉语言模型,比如说,它是一辆汽车。你将这种情况呈现给视觉语言模型。视觉语言模型实际上会观察这种情况,说,这就是发生的事情,我在这方面非常擅长。
然后,你根据提示做出响应,并提示 AI 模型在整个数据湖中查找其他类似情况,无论情况如何。然后,你使用 AI 进行域随机化并生成一大堆其他示例。然后,你就可以开始训练瓶子了。因此,你可以使用同伴进行数据处理和数据管理以及基于机器学习的搜索。
然后,您创建训练数据集,然后将其提供给 Hopper 系统进行训练。因此,这些架构中的每一个都是完全兼容 CUDA 的,因此一切都需要兼容。但是,如果您拥有基础设施,那么您可以将不太密集的工作负载放在过去的安装基础上。我们所有人都得到了很好的就业。
我们还有时间再问一个问题,这个问题来自花旗的 Atif Malik。请继续。
嗨。感谢您回答我的问题。我有一个关于 Colette 毛利率的后续问题。我知道 Blackwell 的产量、NVLink 72 和以太网组合有很多变动。
您之前提到,4 月份季度是谷底,但下半年必须每季度增加 200 个基点才能达到您给出的财年末 70 年代中期的水平。我们仍然不太了解关税对更广泛的半导体行业的影响,那么您对今年下半年的走势有什么信心呢?
是的。谢谢你的提问。我们的毛利率非常复杂,包括材料以及我们在 Blackwell 系统中组装的所有东西,我们有大量机会来研究其中的许多不同部分,以了解如何随着时间的推移更好地提高我们的毛利率。请记住,我们在 Blackwell 上也有许多不同的配置,可以让我们做到这一点。
因此,在我们为客户完成一些非常强劲的产能提升后,我们就可以开始很多工作了。如果没有,我们可能会尽快开始。如果我们能在短期内改善它,我们也会这样做。关税目前还是一个未知数,在我们进一步了解美国的情况之前,这还是一个未知数
政府的计划包括时间、地点和数量。因此,目前我们正在等待,但同样,我们当然会一直遵循出口管制和/或关税。
我只是想感谢你。谢谢你,科莱特。对布莱克威尔的需求非常大。人工智能正在超越感知和生成人工智能,进入推理阶段。
对于当前的人工智能,我们观察到了另一个缩放定律,即推理时间或测试时间缩放,更多的计算。模型思考得越多,答案就越聪明。OpenAI、Grok 3、DeepSeek-R1 等模型是应用推理时间缩放的推理模型。推理模型可以消耗 100 倍以上的计算。
未来的推理模型会消耗更多的计算资源。DeepSeek-R1 点燃了全球热情。这是一个非常棒的创新。但更重要的是,它开源了一个世界级的推理 AI 模型。
几乎每个 AI 研发人员都在应用 R1 或思维链和强化学习技术(如 R1)来扩展其模型的性能。正如我之前提到的,我们现在有三种扩展定律,它们推动了对 AI 计算的需求。AI 的传统扩展损失保持不变。基础模型正在通过多模态得到增强,预训练仍在增长。
但这已经不够了。我们还有另外两个扩展维度:训练后扩展,其中强化学习、微调、模型提炼需要的计算量比单独的预训练多几个数量级;推理时间扩展和推理,其中单个查询需要 100 倍以上的计算量。我们为这一刻定义了 Blackwell,一个能轻松从交易前、训练后和测试时间扩展过渡的单一平台。Blackwell 的 FP4 Transformer 引擎和 NVLink 72 扩展结构和新软件技术使 Blackwell 处理推理 AI 模型的速度比 Hopper 快 25 倍。
Blackwell 的所有配置都已全面投入生产。每个 Grace Blackwell NVLink 72 机架都是一个工程奇迹。近 100,000 名工厂操作员在 350 个制造基地生产了 150 万个组件。人工智能正在以光速前进。
我们正处于推理 AI 和推理时间扩展的起步阶段。但我们才刚刚进入 AI 时代,多模态 AI、企业 AI、主权 AI 和物理 AI 马上就要来临。我们将在 2025 年实现强劲增长。展望未来,数据中心将把大部分资本支出用于加速计算和 AI。
数据中心将日益成为 AI 工厂,每家公司都会租用或自营。我要感谢大家今天加入我们。几周后,欢迎来参加 GTC。我们将讨论 Blackwell Ultra、Rubin 以及其他新的计算、网络、推理 AI、物理 AI 产品等等。