财经新闻网11月20日电(刘锐 编辑)美东时间周三收盘后,英伟达发布了令人瞩目的第三季度财报。 NVIDIA 首席执行官黄仁勋和首席财务官 Colette Kress 在财务报表中强调,对 NVIDIA 产品的需求依然强劲,下游客户正在从人工智能中受益。
同时,NVIDIA高管还回答了分析师关于NVIDIA营收目标、产品迭代、财务计划、战略合作、AI行业趋势、功耗瓶颈等问题。
黄强调了三个根本性转变——从CPU到GPU的加速、生成式人工智能的结合以及智能人工智能的出现——他表示这将是长期基础设施投资的主要驱动力。
日期
2025 年 11 月 19 日下午 5:00外星人
参与者
•总裁兼首席执行官:黄仁勋
•执行副总裁兼首席财务官:Colette Kress
•副校长投资者关系负责人:Toshiya Hari
中心点
• 对人工智能平台的需求:管理层强调已安装的GPU容量已得到充分利用,而“云服务已耗尽”,表明供需持续不平衡。 NVIDIA 此前提出的今明两年收入目标为 5000 亿美元,这无疑带来了进一步增长的机会。
•Blackwell 平台:300 GB 约占Blackwell 总收入的三分之二。 GB 300目前正在引领产品变革,并得到客户的广泛认可。
• 战略合作伙伴关系和投资:宣布与AWS、Humane、Suzuki、Intel、ARM、Anthropic 等合作伙伴合作。新的人工智能工厂项目包含多达 500 万个 GPU。
•Rubin平台:预计将于2026年量产,首批芯片专注于向后兼容性和快速生态系统采用。
•性能领先——Blackwell Ultra は、DeepSeek r1 ベンチマークで Hopper よりも5 H200
•戦略的投资 – Open nAIやAnthropicなどの人工知能モデル开発者への投资を継続します。
• 供应链扩张:与台积电合作在美国生产第一批Blackwell 晶圆。继续努力扩大供应冗余和弹性。
• 中国市场における收益限制-コretto・kuresu氏は、「地政学的问题と中国市场における竞争激化の影响を受け、四今半卡NVIDIA显卡は引き続き」
• 创业コsutoの上升——コretto・kuresu氏は、「原材料コsutoは上升し続けているが」、当社は粗利益率を约7 5%に维持するために悬命に取り组んでいる」と述べ、2027年度に直面する利益率の圧力を浮き雕りにした。
NVIDIA显卡(人工知能の支持により翻訳されており、の内容は删除一部されています)
哈里亚:大家好。欢迎参加 NVIDIA 2026 财年第三季度财报电话会议。然后,让科莱特接管会议。
科莱特·克雷斯:谢谢。 当社は、売上高が前年同期比 62% 増の 570 亿ドルとなり、前四半期比で 100亿ドル(22%増)ました。当社のお客様は、akuserareーテッドコンピューティング、强力なAI 然而,这些变化仍处于早期阶段,将影响我们在各个行业的业务。 Blackwell 和 Rubin 现在预计从今年年初到 2026 年 12 月,他们平台的收入将达到 5000 亿美元。
通过执行年度产品周期并通过全栈设计扩展我们的性能领先地位,我们相信 NVIDIA 是在本十年末构建每年价值 3-4 万亿美元的人工智能基础设施的首选合作伙伴。对人工智能基础设施的需求继续超出我们的预期。云服务已耗尽,已安装的GPU容量(包括Blackwell、Hopper和Ampere等新老产品线)正在充分利用。第三季度数据中心收入达到创纪录的 510 亿美元,同比增长 66%,这对于我们的规模而言是一项重大成就。
计算领域同比增长56%,主要得益于300GB的量产。与此同时,随着 NVLink 的增长,网络业务收入增长了一倍多,Spectrum X 以太网和 Quantum X InfiniBand 业务实现了两位数的增长。超大规模云计算行业——一个价值数十亿美元的行业——正在将搜索推荐和内容理解从传统的 Mac 转移到其他领域。学习生成人工智能。 NVIDIACUDA 在这两个领域都表现出色,使其成为这一转型的理想平台,并推动了数千亿美元的基础设施投资。 Meta 的人工智能推荐系统可提供更高质量、更相关的内容,让用户能够在 Facebook 和 Threads 等应用上花费更多时间。
分析师预测,2026 年主要云服务提供商 (CSP) 和超大规模云计算提供商的总资本支出将继续上升,目前约为 6000 亿美元,自年初以来增加了超过 2000 亿美元。我们从事超大规模计算,我们相信当前工程工作负载向加速计算和生成式人工智能的迁移代表了大约一半的长期机会。
增长的另一个支柱是基础模型的开发。信息学方面的支出持续增长,开发商包括 Anthropic、Mastral、OpenAI、Reflection、Safe Superintelligence、Thinking Machines Lab 和 xAI。所有这些公司都在积极扩展其计算能力以提高智能。三个缩放定律仍然有效:训练前、训练后和推理。
事实上,我们看到一个积极的良性循环正在形成。这三个扩展定律和易于访问计算资源会带来更高的智能,从而提高应用程序的采用率和收入。
OpenAI最近宣布其每周用户基数已增长至8亿,企业客户达到100万,毛利率强劲。 Anthropic 最近报告称,截至上个月,年化收入为 70 亿美元,高于年初的 10 亿美元。此外,人工智能代理正在迅速部署并应用于各种行业和任务。
Cursor Anthropic、Open Evidence、Epic 和 Abridge 等公司正在经历快速的用户增长,为现有员工提供支持并为项目带来可观的投资回报 (ROI)读者和医疗专业人员。全球领先的企业软件平台,包括ServiceNow、CrowdStrike和SAP,都集成了NVIDIA的加速计算和人工智能技术。我们的新合作伙伴 Palantir 是第一个利用 NVIDIA 的 CUDA X 库和 AI 模型为其流行的本体平台提供支持的公司。此前,与大多数企业软件平台一样,本体仅在 CPU 上运行。 Lowe’s 提供此平台来提高供应链灵活性、降低成本并提高客户满意度。公司经常使用人工智能来提高生产力、提高效率并降低成本。
加拿大皇家银行 (RBC) 使用代理人工智能显着提高分析师的工作效率,将报告生成时间从几小时缩短到几分钟。人工智能和数字孪生帮助联合利华将内容创建速度提高了一倍,并节省了 5.5 亿美元的成本。采用 Cursor 后,Salesforce 工程团队进行了改进d 新代码开发效率至少提高30%。本季度,我们宣布了人工智能基础设施和工厂项目,其中总共包括 500 万个 GPU。这些需求横跨所有市场,包括云服务提供商、主权国家、现代开发商、企业和超级计算中心,并包括多个创新建设项目,包括xAI的Colossus Two(全球第一个千兆瓦数据中心.ndo)和礼来公司的药物开发人工智能工厂(制药行业最强大的数据中心)。
就在今天,AWS 和沙特人道协会扩大了合作范围,提供了多达 150,000 个 AI 加速器(我们的 300 GB); xAI 和 Humane 还宣布建立合作伙伴关系,共同开发以 500 MW 旗舰设施为中心的世界级 GPU 数据中心网络。 Blackwell在第三季度取得了进一步的发展势头,300GB收入约占Blackwell总收入的三分之二,并超过了200GB。过渡到300GB 是无缝的,并且已经在推动增长,向大多数主要云服务提供商、超大规模云提供商和 GPU 云平台批量发货。 Hopper 平台自推出以来已进入第 13 个季度,第三季度收入约为 20 亿美元。 H200 的销售额约为 5000 万美元。
受地缘政治问题和中国市场竞争加剧的影响,本季度没有完成大额订单。虽然我们对当前形势无法向中国市场提供更具竞争力的数据中心计算产品感到失望,但我们仍然致力于继续与美国和中国政府合作,继续捍卫美国在全球的竞争力。要在人工智能计算领域建立可持续的领导地位,它必须赢得所有开发者的支持,并成为包括中国企业在内的所有商业公司的首选平台。
Rubin 平台计划于 2026 年实现量产。 Vera Rubin platform由7个芯片支持,与Blackwell相比再次实现了数倍的性能提升。我们很高兴地报告说,我们已经从供应链合作伙伴那里收到了芯片,并且全球 NVIDIA 团队的产品发布进展顺利。 Rubin 是我们的第三代机架安装系统,可显着优化制造能力,同时保持与 Grace Blackwell 的兼容性。我们的供应链、数据中心生态系统和云合作伙伴现在能够制造和安装 NVIDIA RAC 架构。我们的生态系统已准备好快速大规模生产 Rubin。我们多年的性能领先地位可降低您的 IT 成本,同时提高每美元的性能。
与其他加速器相比,NVIDIA CUDA GPU 的使用寿命较长,可显着降低总体拥有成本 (TCO)。凭借 CUDA 支持和大装机容量,NVIDIA 系统的使用寿命将比最初预期的要长得多。 20多年来,我们不断lly 优化了 CUDA 生态系统,改善现有工作负载,加速新工作负载,并通过每次软件更新提高性能。随着模型技术的发展,大多数不具备经过验证的 CUDA 和 NVIDIA 通用应用架构的加速器将在几年内被淘汰。得益于 CUDA,六年前发布的 A100 GPU 凭借大幅改进的软件堆栈,仍能满负荷运行。
在过去的25年里,我们已经从一家游戏GPU公司成长为今天的AI数据中心基础设施公司。我们在 CPU、GPU、网络、软件方面进行创新并最终降低每个代币成本的能力在业界是无与伦比的。我们的专用网络业务目前是全球最大的网络业务,收入为 82 亿美元,同比增长 162%,NVLink、InfiniBand 和 Spectrum X 以太网为增长做出了贡献。我们在数据中心网络领域处于领先地位,当前大多数人工智能部署都包括我们的交换机,GPU 以太网连接速度几乎与 InfiniBand 相当。
Meta、微软、甲骨文和 xAI 正在使用 Spectrum 建设千兆瓦级人工智能工厂。我们最近推出了Spectrum XGS(跨规模技术),帮助建设千兆级人工智能工厂。 NVIDIA 是唯一一家拥有 AI 高端、高端、跨规模平台的公司,巩固了我们作为 AI 基础设施提供商在市场上的独特地位。客户对 NVLink Fusion 的兴趣持续增长。 10 月,我们宣布与铃木建立战略合作伙伴关系,通过 NVLink Fusion 集成富士通 CPU 和 NVIDIA GPU,连接我们庞大的生态系统。
我们还宣布与英特尔建立合作伙伴关系,通过 NVLink 连接 NVIDIA 和英特尔生态系统,以开发多代定制 PC 和数据中心产品。在本周的 Supercomputing 25 大会上,Arm 推出了一款 CPU 片上系统 (SoC),客户可以将其连接到 Nvidia 产品。)并宣布集成 NVLink IP,以实现开发NVLink 现已发展到第五代,是市场上唯一经过验证的垂直扩展技术。在最新的 MLPerf 训练测试中,Blackwell Ultra 的训练速度比 Hopper 快五倍。 Nvidia 击败了所有基准测试。值得注意的是,NVIDIA 是唯一支持 FP4 精度并满足严格的 MLPerf 精度标准的训练平台。
在 Semianalysis 的 Inference Max 基准测试中,Blackwell 在所有模型和用例中实现了最佳性能和最低总拥有成本。 d 特别令人感兴趣的是 Blackwell 的 NVLink 在混合专家模型(世界上最流行的推理模型架构)上的性能。在 DeepSeek r1 测试中,与 H200 相比,Blackwell 的每瓦性能提高了 10 倍,每个代币的成本降低了 10 倍。
由于我们明确的协同设计方法,这一重要的代际飞跃才得以实现。 NVIDIA Dynamo 是一种开源、低延迟的模块化推理框架,目前已被所有主要云服务采用冰供应商。 Dynamo 支持和分布式推理可提高复杂 AI 模型(例如混合专家模型)的性能。 AWS、Google Cloud、Microsoft Azure 和 OCI 为企业云客户提高了 AI 推理性能。我们与OpenAI建立了战略合作伙伴关系,致力于帮助他们建设和部署至少10吉瓦的人工智能数据中心。此外,我们还有机会投资该公司。目前,我们通过我们的云合作伙伴为 OpenAI 提供服务:Microsoft Azure、OCI 和 CoreWeave。
以后我们还会继续做这个醋。随着他们不断扩大规模,我们很高兴能够支持他们加强内部基础设施,目前我们正在制定最终协议,并期待支持 OpenAI 的发展。昨天我们宣布与 Anthropic 合作。 Anthropic将首次使用NVIDIA架构,建立深度技术合作伙伴关系支持Anthropic的快速发展。我们将共同努力优化 Anthropic 模型,使其与 CUDA 兼容,以获得最佳性能、效率和总体拥有成本。我们还计划针对 Anthropic 工作负载优化未来的 NVIDIA 架构。 Anthropic 的计算设施最初将包括高达 1 吉瓦的计算能力,由 Grace Blackwell 和 Vera Rubin 的系统提供支持。
我们对 Anthropic、Mastral、OpenAI、Reflection、Thinking Machines 等的战略投资代表了合作伙伴关系,可扩展 NVIDIA 的 CUDA AI 生态系统,并使任何模型能够在所有 NVIDIA 产品上以最佳方式运行。我们将继续进行战略投资,同时保持严格的现金流管理。物理人工智能预计将成为一项价值数十亿美元的业务,拥有数十亿美元的市场机会,并将成为英伟达的下一个增长动力。美国领先的机器人制造商和创新者都依赖这三个 NVIDIA计算架构。这意味着在 NVIDIA 进行训练,在 Omniverse 计算机上进行测试,并在 ro 计算机上部署现实世界的 AI。Justin 机器人。
PTC 和西门子推出了一项新服务,为广大现有客户带来由 Omniverse 支持的数字孪生工作流程。 Belden、Caterpillar、富士康、Lucid Motors、丰田、台积电、纬创资通等公司正在建设 Omniverse 数字孪生工厂,以加速人工智能驱动的制造和自动化的发展。 Agility Robotics、Amazon Robotics、Figure 和 Skilled AI 等公司都在我们的平台上构建,使用 NVIDIA Cosmos(用于开发)的全局模型以及 Omniverse(用于模拟和验证)和 Jetson(为下一代智能机器人提供动力)等产品。我们仍然致力于建立一个有弹性和冗余的全球供应链。上个月我们与台积电合作在美国生产了第一批Blackwell晶圆。
未来四年,我们将继续与公司合作富士康、纬创资通、Amcor 和 Spill 等公司扩大我们在美国的业务。受强劲市场需求的推动,游戏收入同比增长 30% 至 43 亿美元。共有 4200 万游戏玩家和数千名粉丝齐聚韩国举办的 GeForce 游戏节,庆祝 GeForce 成立 25 周年。 NVIDIA 的专业可视化业务已发展成为面向工程师和开发人员的计算解决方案,包括图形处理和人工智能应用程序。专业显示业务收入同比增长56%至7.6亿美元,创下新纪录。这一增长主要是由 DGX Spark 推动的,它是世界上最小的人工智能超级计算机,采用 Grace Blackwell 的紧凑配置构建。
汽车收入同比增长 32%,达到 5.92 亿美元,主要由自动驾驶解决方案推动。尼韦尔 4 号大世界建筑和新建筑的 Uber 升级改造工程自动驾驶出租车参考 NVIDIA Hyperion L4。我们来谈谈损益表的其他部分。 GAAP 毛利率为 73.4%,非 GAAP 毛利率为 73.6%,超出我们的预期。幸运的是,我们将在三季度实现数据中心企业结构的优化、周期的缩减和成本结构的优化。 GAAP 运营费用环比增长 8%,非 GAAP 运营费用环比增长 11%。这主要是基础设施计算、工资和福利以及工程师成本的增加。
由于美国市场收入强劲增长,第三季度非 GAAP 有效税率高于 16.5% 的指导值,略高于 17%。资产负债表方面,库存环比增长 32%,供应承诺环比增长 63%。我们正在为重大事件做准备未来的增长,并对我们利用市场机会的能力充满信心。接下来,我将讨论我们对第四季度的展望。总收入预计为 650 亿美元,上下浮动 2%。中点代表 Blackwell 架构持续增长势头,进一步实现 14% 的增长。与上一季度一样,我们不包括来自中国的数据中心计算收入。
GAAP 和非 GAAP 毛利率预计分别为 74% 和 75%,上下浮动 50 个基点。展望2027财年,投入成本将继续增加,但我们将力争将毛利率维持在75%左右。 GAAP 和非 GAAP 运营费用预计分别约为 67 亿美元和 50 亿美元。其他 GAAP 和非 GAAP 收入和支出(不包括私人和非 GAAP)预计约为 5 亿美元(收入)。上市股票的损益。不包括非经常性项目,GAAP 和非 GAAP 税率为预期值预计为17%正负1%。我现在把会议交给黄仁勋先生,请他发表意见。
黄仁勋:谢谢你,科莱特。关于人工智能泡沫的讨论很多。但从我们的角度来看,它看起来完全不同。需要明确的是,NVIDIA 与其他加速器不同。它是不同的。我们在人工智能的每个阶段都表现出色:训练前、训练后和推理。
凭借我们20年的CUDA科学与工程、计算机图形学、结构化数据处理和传统机器学习。世界正在同时经历三大平台转型。这是自摩尔定律创立以来第一次发生这种情况。 NVIDIA 独特地解决了这三个转变。
第一个转变是从通用CPU计算到GPU加速计算。随着摩尔定律放缓,世界正在大力投资非人工智能软件,每年在云计算上花费数千亿美元从数据处理到科学技术模拟的一切。许多曾经仅在 CPU 上运行的应用程序现在正在快速迁移到 CUDA GPU。加速计算已达到临界质量。
其次,人工智能已经达到了一个临界点,正在改变现有的应用程序并创建全新的应用程序。就现有应用程序而言,生成式人工智能正在搜索排名、推荐系统、广告定位、点击率预测和内容审核等领域取代传统机器学习,这些对于超大规模基础设施至关重要。 Meta 的广告推荐 JEM 基础模型(在大规模 GPU 集群上训练)体现了这种转变。
第二季度,Meta 报告称,基于生成人工智能的 JEM 模型使 Instagram 广告的转化率提高了 5% 以上,Facebook 动态广告的转化率提高了 3%。向生成式人工智能的转变超大规模云计算提供商的收入显着增加。
新一波系统正在兴起。人工智能代理可以推理、计划和使用工具。 Cursor 和 QuadCode 等代码从医疗助理到 iDoc 等放射学工具、Harvey 等法律助理,以及 Tesla FSD 和 Waymo 等人工智能自动驾驶系统,这些系统代表了计算的下一个前沿。如今,世界上发展最快的公司(OpenAI、Anthropic、xAI、Google、Cursor、Lovable、Replit、Cognition AI、Open Evidence、Abridge、Tesla)都是智能代理领域的先驱。因此,这三个平台的转型非常重要。
在后摩尔定律时代,向加速计算的过渡是基础、必要和关键的。向生成式人工智能的过渡是变革性的、必要的,并将改善现有的应用程序和商业模式。身体和物理人工智能向智能的转变将是革命性的,并将引发新的应用程序、行动、公司、产品和服务。
在考虑基础设施投资时,请考虑这三个基本动态。所有这些都将推动未来几年基础设施的增长。选择 NVIDIA 是因为我们的单一架构支持所有三种转型,并且适合所有行业、人工智能的所有阶段以及所有不同的计算需求,包括云、企业和机器人,所有这些都在单一架构中。
Toshiya Hari:现在我们开始问答环节。操作员,开始提问。
莎拉:我们的第一个问题来自摩根士丹利的约瑟夫摩尔。这是你提出来的问题。问我一个问题。
何塞·摩尔:谢谢。我想收到最新的信息。您在GTC会议上表示,Blackwell和Rubin的收入将在2025年和2026年达到5000亿美元。当时您说其中1500亿美元是出货产品。那么,一旦季度结束,这些一般参数是否仍然适用?那么结束了接下来的 14 个月左右,我们还有 3 个月,这是否意味着有 500 亿美元的收入利润?另外,我认为我们还没有看到这一时期的所有需求,但这些数字是否有可能随着时间的推移而向上修正?
科莱特·克雷斯:好的,谢谢乔。我先回答一下这个问题。是的,这是正确的。该公司有望实现 5000 亿美元的预计目标,几个季度已经完成并步入正轨。距离 2026 年 12 月只有几个季度了。我相信这个数字将继续增长,到 2026 财年,对可穿戴计算的需求也将增加。尽管我们本季度的出货量为 500 亿美元,但如果不提及我们可能会收到额外的订单,这将是不完整的。
例如,今天我们宣布与沙特阿拉伯 (KSA) 达成协议。这包括在未来三年内添加 400,000 到 600,000 个 GPU。人类合作也不是什么新鲜事。因此,除了我们宣布的 5000 亿美元之外,肯定还有一个选项进一步成长的机会。
莎拉:我们的下一个问题来自 C.J. 坎托·菲茨杰拉德的缪斯。电话已连接。
CJ缪斯:你好。感谢您回答我的问题。显然,人们对人工智能基础设施建设的规模、筹集资金的能力和投资回报存在很多担忧。但同时他表示,所有部署的 GPU 都很繁忙,云服务也已耗尽。 AI行业,更不用说Rubin了,在GB 300上还没有看到任何明显的进展。而Gemini 3刚刚推出,Grok 5也即将推出。
所以我的问题是,在这种背景下,您认为未来 12 到 18 个月供应量会减少吗?能否继续满足需求?或者这种供需失衡是否会持续更长时间?
黄仁勋:你知道,我们在供应链规划方面做得非常好。 NVIDIA的供应链基本覆盖了全球所有科技公司。台积电(及其封装业务)、我们的内存供应商和标准合作伙伴以及我们所有的系统 ODM 都与我们合作制定了一个伟大的计划。我们一直在为美好的一年做准备。要知道,我之前提到的三大转变是我们一段时间以来一直在关注的事情:加速计算,从通用计算转向加速计算。重要的是要认识到人工智能不仅仅是代理人工智能。生成式人工智能也正在改变超大规模云计算提供商传统上在 CPU 上完成的工作。
生成式 AI 允许您将搜索、推荐系统、广告推荐和定位等操作转移到生成式 AI。一切都在朝着生成式人工智能的方向发展,而且这种转变仍在进行中。因此,无论您是安装 NVIDIA GPU 进行数据处理,还是安装用于推荐系统的生成式 AI,还是许多人认为的像代理聊天机器人那样的 AI,所有这些应用程序都可以成为使用 NVIDIA GPU 加速。因此,在分析总体支出时考虑各个层面非常重要。它们都在成长、相互关联但又相互独立。
然而,好消息是您可以在 Nvidia GPU 上同时运行它们。随着人工智能模型的质量以令人难以置信的速度提高,它们在各种用例中的采用也在不断提高,包括代码支持(Nvidia 本身就经常使用它,而且我们并不孤单)。因此,Cursor、CliveCode、OpenAI 的 Codex 和 GitHub Copilot 等应用程序的组合是有史以来增长最快的应用程序。此外,随着可视化编程的出现,它现在不仅被软件工程师使用,还被企业工程师和营销人员使用。
企业支持我还使用层链规划器。所以这只是一个例子,我相信还有更多。无论是 Open Evidence 在医疗保健领域的工作还是 Runway 在数字视频编辑方面的工作,都有许多有趣的初创公司利用生成和代理技术t AI,并且它们的使用正在显着增加。更不用说这种快速的增长,今天我收到丹尼斯的消息,他的前后训练仍然非常有效。
Gemini 3a 利用缩放定律显着提高模型性能的质量。所以你可以看到这种指数增长是同时发生的。我们必须始终回到基础并思考我上面提到的每一个动态:从通用计算到加速计算的转变,用生成式人工智能取代传统机器学习,当然还有全新类别的代理人工智能。
莎拉:我们的下一个问题来自美国银行。美国银行证券的 Vivek Arya,线路已接通。
Vivek Arya:谢谢您回答我的问题。我想知道对于 5000 亿美元的收入目标,每千兆瓦 NVIDIA 产品对应的收入是多少。因为我们听到的数字范围从每个 gi 250 亿美元不等GW 到 300 亿美元或 400 亿美元。所以我很好奇:在 5000 亿美元的目标内,每吉瓦电力的预期收入是多少?此外,黄仁勋此前表示,从长远来看,到2030年数据中心市场规模将达到3万亿至4万亿美元。您认为其中有多少需要厂商融资,又有多少可以由大客户、政府和企业的现金流支撑?谢谢。
黄仁勋:安培到霍珀,霍珀到布莱克威尔,布莱克威尔到鲁宾以及产品。随着每一代人的不断发展,我们在数据中心业务中所占的份额都在增加。每吉瓦漏斗发电相应的收入可能超过 20 亿美元,可能在 200 亿至 250 亿美元之间。布莱克威尔这一代人(尤其是格蕾丝·布莱克威尔)可能拥有大约 300 亿美元的财富(无论是给予还是赚取)。鲁宾一代甚至可以成为更老的一代。每一代产品的性能ce经过多次改进,因此客户的总拥有成本也得到了多次优化。最重要的是,它仅消耗 1 吉瓦的电力。
众所周知,一个1GW的数据中心消耗1GW的电力,因此其架构的每瓦性能(效率)非常重要。而建筑效率不能通过蛮力来实现,也不能强行实现。 1吉瓦电力直接转化为收入。每瓦性能直接、绝对直接转化为您的利润。这就是为什么选择正确的架构如此重要。如您所知,世界上没有额外的资源可以浪费。因此,我们需要重点关注一个叫做协同设计的概念。
优化发生在我们的整个技术堆栈、框架和模型、整个数据中心,甚至我们的能源和冷却系统、整个供应链和生态系统中。因此,随着产品的不断涌现,我们的经济不断发展贡献越大,我们提供的价值就越大。但最重要的是,每一代产品的每瓦能源效率都更高。由客户决定如何为持续增长提供资金。我们相信未来将会有巨大的增长机会,但请记住,当前的大部分注意力都集中在超大规模云提供商上。
关于超大规模云计算玩家最常见的误解之一是,投资 Nvidia GPU 不仅会增加通用计算的规模、速度和成本,因为摩尔定律的增长实际上正在放缓(这是第一点)。摩尔定律的核心是降低成本,计算成本随着时间的推移而急剧下降。但这种下降已经放缓。因此,您需要新的方法来继续降低成本。使用NVIDIA GPU计算无疑是最好的方式。第二点是增加现有商业模式的收入。如您所知,推荐系统是核心业务全球超大规模云计算提供商。
观看短视频、推荐书籍、推荐购物车中的下一件商品、推荐广告、推荐新闻等都依赖于推荐系统。互联网上有数十亿的内容,但是如何将您感兴趣的内容带到小屏幕上呢?除非你有一个非常复杂的推荐系统。现在,推荐系统已经成为生成式人工智能。所以我前面提到的前两点,我们需要投资的数千亿美元的资本支出,完全可以由现金流来支撑。此外,还有与人工智能相关的费用。
这部分收入是新的消费者需求,但同时也创造了新的应用。我之前提到过其中一些新应用程序,这些新应用程序也是历史上增长最快的应用程序之一。我明白?因此,当人们开始了解表面之下到底发生了什么时,从资本支出的简单观点到认识到这三种动态,逻辑将开始变得有意义。最后,请记住,我们刚刚讨论了位于美国的云服务提供商。每个国家都为自己的基础设施提供资金。世界上有很多国家,有很多行业。
世界上大多数行业尚未完全采用基于代理的人工智能,但它们正在开始。我会这么做。你知道,我们合作的所有公司,无论是自动驾驶汽车公司还是工厂中物理人工智能的数字孪生技术公司,或者是世界各地正在建设的大量工厂和仓库。这是数字生物学的一个领域。然而,许多初创公司正在获得资金来加速药物开发。所有这些不同的行业都开始加入进来并尝试自行筹集资金。因此,不要认为超大规模云计算提供商是构建云计算的唯一力量。未来。
你必须着眼于全球市场和所有不同的行业,企业计算最终也会为自己的行业提供资金。
莎拉:我们的下一个问题来自 Melius 的 Ben Reitzes。电话已连接。
本·雷茨:嗨,谢谢。 Jen-Hsun Huang,我想问一下你关于现金规划的问题。鉴于它可以在未来几年内产生约 5000 亿美元的自由现金流,您对这些现金有何计划?股票回购和生态系统投资的比例是多少?您对投资生态系统有何看法?我认为,对于这些交易的运作方式以及投资 Anthropic、OpenAI 等公司的标准,人们存在很多困惑。太感谢了。
黄仁勋:好的,谢谢你的提问。当然,这些现金将用于支持我们的增长。没有其他公司能够以我们所说的规模发展,同时拥有 Nvidia 所拥有的供应链联系的广度和深度。我们整个客户客户基础取决于我们,我们拥有非常有弹性的供应链,我们的资产负债表可以支持他们。您可以放心地从我们的供应商处购买。当我们进行预测和规划时,他们会认真对待我们。这都是因为我们的平衡。我们不仅猜测产量,而且了解生产需求。
而且他们已经与我们合作多年,所以我们的声誉和可靠性非常高。因此,支持这种规模、速度和规模的增长需要非常强大的资产负债表。这是第一点。
其次,我们当然会继续回购自己的股票。但说到投资,这意味着我们正在进行的非常重要的工作。迄今为止,我们所做的所有投资都是为了扩大 CUDA 的影响并扩展我们的生态系统。
如果你看看我们对 OpenAI 的投资,我们当然从 2016 年就开始与他们合作。我们为 OpenAI 提供了第一台人工智能超级计算机。从那时起,我们一直保持着c与 OpenAI 的合作失败与成功。目前,OpenAI的所有操作都运行在Nvidia产品上。他们在云中部署的训练和推理工作负载取决于 NVIDIA,我们很高兴与他们合作。我们与他们的合作旨在从技术角度建立更深层次的合作,以支持他们的加速发展。这是一家发展非常快的公司。不要只关注新闻内容。
查看与 OpenAI 相关的所有生态系统合作伙伴和开发人员。所有这些都在推动产品的采用。与一年前相比,人工智能的质量有了显着提高。响应的质量非常出色。因此,我们投资 OpenAI 是为了建立深入的合作伙伴关系和共同开发,以扩大生态系统并支持其发展。当然,收购他们的股份比分割我们公司的股份要好。
我们投资于创新型公司,我们拥有股票,您将拥有千载难逢的潜力。因此,我福我希望这项投资能够产生非凡的回报。至于Anthropic,这是Anthropic首次采用Nvidia的架构。 Anthropic 是全球第二大使用人工智能公司,在企业领域表现强劲。 ClotCode的性能非常好,Clot也非常成功,被全球很多公司使用。
我们现在有机会与他们建立深厚的合作伙伴关系,并将 Claude 引入 NVIDIA 平台。那么我们现在有什么? NVIDIA 架构——如果退一步想一想,NVIDIA 平台是世界上唯一可以运行所有 AI 模型的平台。我们运行 OpenAI 模型、我们运行 Anthropic 模型、我们运行 xAI 模型。得益于我们与 Elon 和 xAI 的深入合作,我们能够为 esgive 沙特阿拉伯带来使 Huma 成为现实的机会。 ne还可以为xAI提供托管服务。我们运行 xAI 模型、Gemini 模型和 Thinking Machines 模型。想一想,你还有哪些其他型号e?运行所有模型。
我们提出了世界上所有学科的模型,包括科学模型、生物学模型、ADN 模型、遗传学模型、科学模型和更多模型。世界不仅仅使用认知人工智能。人工智能正在影响各行各业。 《Entonces》是一部关于现实生态系统的反转之旅,它构建了与世界伟大企业和伟大企业的深刻技术关联。我们扩大生态系统的范围,并投资于非常成功且经常创新的公司。这是我们的投资理念。
莎拉:我们的下一个问题来自高盛的吉姆·施奈德。电话已连接。
吉姆·施奈德A: 你好。感谢您回答我的问题。我们之前说过,大约40%的出货量与AI推理有关。展望明年,您预计一年后的百分比是多少?您能否介绍一下接下来将推出的Rubin CPX产品年并指出预计占据的 TAM(总可寻址市场)规模?另外,您能否介绍一下该产品的客户应用场景?谢谢。
Jen-Hsun Huang:CPX 专为长上下文工作负载生成而设计。基本上,长上下文意味着您需要阅读大量信息才能开始生成响应。基本上,是一个很长的上下文。其中包括一堆 PDF 文件、一系列视频、3D 图像等。首先,您需要吸收这些上下文信息。因此,CPX 专为长上下文工作负载而设计。具有巨大的性价比和出色的性能。我差点忘了问题的第一部分。
科莱特·克雷斯:推理的工作。
黄仁勋:是的,这听起来很合乎逻辑。是的。三个缩放定律一起发挥作用。第一个缩放法则是预训练法则,它在今天仍然非常有效。第二个是训练后。训练之后的训练本质上是发现优秀人工智能算法可以提高人工智能分析问题并逐步解决问题的能力。一次又一次的训练,他的成长突飞猛进。基本上,您在模型中投入的计算资源越多,它就会变得越智能和认知。三是推理能力。思维链和推理能力需要人工智能在回答问题之前进行阅读和思考。
这三个因素呈指数增加所需的计算量。我认为很难确切地知道在任何特定时间这个百分比是多少,或者涉及哪些领域。但当然,我们预计推理业务将占据很大的市场份额。因为更大的推理业务意味着人们在更多的应用中更频繁地使用推理。昂贵的。这是我们大家都希望看到的。从这个意义上说,格蕾丝·布莱克威尔比世界上任何人都先进得多。
下一个最好的平台是 H200,但它不是很明显,得益于可扩展的 MP Link 72 网络,GB 300、GB 200 和 GB 300 的性能非常出色。正如 Colette 在历史上最大的单次推理基准测试半分析基准中指出的那样,GB 200 将 MP Link 72 的性能提高了 10 到 15 倍。这是一个很大的进步。其他人需要很长时间才能赶上。我们在这一领域的领导地位将持续很多年。是的。所以我希望infercompany的生意能成为一项大生意。我们在推理方面的领导力很重要。
莎拉:我们的下一个问题来自瑞银集团的蒂莫西·阿库里。电话已连接。
蒂莫托·阿库里:谢谢。 Jen-Hsun Huang,您的许多客户都在为他们的工厂寻找能源解决方案,但您最关心并可能限制您发展的最大瓶颈是什么?是能源、资金还是其他因素(例如记忆或选角)?太感谢了。
黄仁勋:嗯,这些都是问题和限制。原因是,当你以我们目前的速度和规模划船,你如何能够顺利航行?英伟达正在做的事情显然是前所未有的。我们创造了一个全新的行业。一方面,我们正在将计算从通用计算和传统计算转向加速计算和人工智能。另一方面,我们创造了一个全新的产业,叫做人工智能工厂。
这个想法是,这些工厂需要生成每个令牌才能运行软件,而不是检索以前创建的信息。这就是为什么我认为整个转变需要非凡的规模。当然,从供应链的角度来看,我们非常擅长管理我们的供应链,所以我们对我们的供应链有更好的可见性和控制力。我们与优秀的合作伙伴合作,他们已经与我们合作了 33 年。这就是为什么我们对我们的供应链充满信心。现在往下看供应链,我们已经和很多企业建立了合作伙伴关系涉及土地、能源、工厂建设的公司,当然还有金融领域的合作伙伴。这些都不容易,但都很有趣,而且都有解决方案。
最重要的是要有一个计划。我们自始至终规划供应链,建立了众多的合作伙伴关系,所以我们有很多的市场渠道。非常重要的是,我们的架构必须为客户提供最佳价值。所以现在,我认为NVIDIA的架构在总拥有成本(TCL)方面是最好的,在每瓦性能方面也是最好的。因此,无论功率输入如何,我们的架构都能提供最高的性能。
我认为我们的成功率正在加快;我认为今年到目前为止我们比去年同期更加成功。据我们所知,越来越多的客户在考虑其他选择后转向我们的平台。所以我认为这些年来我告诉你的一切要么成为现实,要么变得更加美好。e 且更明显。
莎拉:我们的下一个问题来自伯恩斯坦研究中心的斯泰西·拉斯贡。电话已连接。
Stacey Rasgon:我有一些关于利润的问题。 Colette,您说过明年您将努力将利润率保持在 75% 左右。那么,首先,最大的成本增长来自哪里?这只是记忆还是有其他因素?您正在采取哪些步骤来实现这一目标?例如,成本优化、前期采购和定价策略将发挥什么作用?鉴于收入可能大幅增加,您应该如何看待明年运营费用的增加?
科莱特·克雷斯:史黛西。首先,我想回顾一下这个术语。今年早些时候,该公司表示将通过成本改善和业务结构优化,到本财年末将毛利率提升至75%左右。我们已经实现了这个目标。现在是时候解释接下来的步骤并为第四季度的执行做准备了。瓦时目前业内人士了解到明年的投入成本将会增加。我们的系统一点也不简单。
如果你仔细想想,它有许多不同部分的组件。因此,在考虑所有这些因素的同时,我们相信,如果我们重新专注于改善成本、缩短周期时间和优化业务结构,我们可以保持约 75% 的毛利率。这是毛利的总体规划。第二个问题是关于运营费用。我们目前的运营支出目标是使我们的工程团队和所有业务团队能够创新并为这个市场创建更好的系统等。
你知道,现在有一个新的架构问世,这意味着他们正忙于使其成为现实。因此,我们将继续在软件、系统和硬件创新方面加大投入。如果黄老师想补充的话,就把麦克风给他。是的。
黄仁勋:我认为这是千真万确的。我想补充的一件事是我们计划,预测并提前与我们的供应链进行谈判。我们的供应链合作伙伴很早就认识到我们的需求和市场的需求,我们也与他们进行了长期的合作和谈判。因此,虽然最近的增长显然很显着,但我们必须记住,我们的供应链已经伴随我们很长时间了。
这是一种长期的关系。这就是为什么在很多情况下我们都会提供很棒的报价。因为他们显然与世界上一些最大的公司合作。我们还在财务方面与他们密切合作,以确保我们达到我们的预测。规划工作将会顺利进行。所以我认为这对我们和你们来说都非常好。
莎拉:最后一个问题是来自富国银行的亚伦·湖人队。电话还在继续。
Aaron Rex:黄先生,我的问题是关于与 Anthropic 宣布的合作协议以及您的客户的总体范围。我很好奇:您对人工智能专用集成电路 (ASIC) 或专用集成电路的作用的看法是否发生了变化?构建这些架构的 alty 芯片?你知道,我认为过去你一直坚持认为其中一些项目永远不会实施。但我很好奇:我们是否已经达到了更倾向于仅 GPU 架构的临界点?谢谢。
黄仁勋:是的。非常感谢。我真的很感激这个问题。醋。首先,你不是在与一家公司竞争,而是在与一个团队竞争。
抱歉,您正在与公司竞争。公司是由团队组成的。世界上没有多少团队能够像这样擅长创造令人难以置信的竞争产品。在 Hopper 和 Ampere 的时代,你所要做的就是构建一个 GPU。这就是人工智能系统中加速的定义。但现在您必须构建整个机架和三种不同类型的交换机:横向扩展交换机、横向扩展交换机和跨规模交换机。如今,构建计算节点不再只需要芯片。
AI需要记忆,所以现在它需要记住薄gs,而之前根本不需要它。内存的大小及其包含的上下文是巨大的。内存架构的影响是惊人的。近年来,模型的多样性呈爆炸式增长,从混合专家模型到密集模型、扩散模型、自回归模型和遵循物理定律的生物模型。
因此,挑战在于问题的复杂性显着增加,AI模型的多样性也显着增加。对我来说,这些是让我们独一无二的五件事。我们与众不同的第一件事是我们有能力加速这一转型的每一步。这是第一阶段。借助 CUDA,您可以从通用计算转向使用 CUDA X 的加速计算。我们的专长是生成人工智能。我们在智能体的人工智能方面也很突出。因此,我们在这一转型的每一步、每一个层面都表现出色。您可以投资一种架构并在 m 中使用它任何不同的区域。使用一种架构,您不必担心这三个阶段的工作负载变化。这是第一点。
第二点是人工智能在每个阶段都表现出色。我们都知道我们非常擅长预训练。当然,锻炼后的努力也是非常好的。推理实在是太难了。事实证明,我们很擅长推理,因为我们就是这样。怎样才能让思考变得更容易?你知道,人们认为推理很容易,因为它是独一无二的。任何人都可以通过这种方式进入市场。但事实证明这是最困难的,因为事实证明它非常难以思考。我们在人工智能的每个阶段都表现出色。这是第二点。
第三点是它是目前世界上唯一可以运行所有人工智能模型的架构。我们出色地执行了所有尖端人工智能模型和开源人工智能模型。我们运行科学模型,我们运行生物模型,我们运行机器人模型,我们运行任何模型。我们是世界上唯一能够实现这一目标的建筑师。您可以使用自回归模型或基于扩散的模型来完成此操作。如上所述,这些模型可以在所有主要平台上运行。因此,它可以运行所有型号。
第四个我想说的是,我们的产品都在云端。开发人员之所以喜欢我们,是因为我们几乎无处不在。我们正在部署到所有云。您还可以创建一个名为 DGX Spark 的小型云。这就是为什么我们的产品适用于任何计算机,从云端到本地,再到机器人系统、外围设备和 PC。一个架构,一切正常。这太不可思议了。
最后一点,也许也是最重要的一点。第五点是,如果你是云服务提供商,像Humane这样的初创公司,像CoreWeave、Enscaler、Nebius、OCI这样的初创公司,Nvidia之所以是你选择的平台,是因为我们的产品需求是如此多样化。我们将帮助您解决您的产品需求。
它不仅仅是在数据中心安装随机 ASIC 芯片。产品的需求从哪里来?多样性从何而来?韧性从何而来?建筑的多功能性从何而来?能力的多样性从何而来?对 NVIDIA 产品的需求非常高,我们的生态系统也非常庞大。所以这五个要素,加速和转型的每个阶段,AI的每个阶段,所有模型,从云到本地的全覆盖,当然最终所有这些都会导致对产品的强烈需求。
莎拉:谢谢。今天的电话会议到此结束。现在挂了就好了。
新浪财经公众号
我们每天24小时播放最新的财经新闻和视频。更多粉丝福利,请扫描二维码关注我们(新浪财经)