K线
数据链上
VIP
市值
API
排行
CoinOSNew
CoinClaw🦞
语言
  • 简体中文
  • 繁体中文
  • English
全球行情数据应用领跑者,致力于更高效地提供有价值的信息。

功能

  • 实时行情
  • 特色功能
  • AI网格

服务

  • 资讯内容
  • 开放数据(API)
  • 机构服务

软件下载

  • PC版
  • Android版
  • iOS版

联系我们

  • 聊天室
  • 商务邮箱
  • 官方邮箱
  • 官方验证通道

加入社区

  • Telegram
  • Twitter
  • Discord

© Copyright 2013-2026. All rights reserved.

简体繁體English
|旧版

黄仁勋最新访谈全文:放弃中国市场是“失败者心态”,算力封锁根本拦不住中国 AI

CN
深潮TechFlow
关注
9小时前
AI 总结,5秒速览全文
“我们在构建计算平台上做的工作,如果我们不做,我真的相信没有人会做。”

整理 & 编译:深潮TechFlow

嘉宾:Jensen Huang,NVIDIA 创始人兼 CEO

主持人:Dwarkesh Patel

播客源:Dwarkesh Patel

原标题:Jensen Huang – Will Nvidia’s moat persist?

播出日期:2026年4月16日

要点总结

本文通过与 Nvidia CEO Jensen Huang 的对话,探讨了关于 TPU(张量处理单元)对 Nvidia 在 AI 计算领域主导地位的潜在影响、公司对先进芯片供应链的把控、是否应向中国出售 AI 芯片、为何 Nvidia 不直接成为超大规模云服务商 (hyperscaler)、以及该公司在芯片架构和投资策略上的选择等问题。

精彩观点摘要

关于英伟达的本质与护城河

  • “归根结底,总有什么东西要把电子转化成 token,这个转化过程以及让 token 随时间变得越来越有价值,不是那么容易被商品化的。我们的工作就是做尽可能多的必要事情、尽可能少的不必要事情,来实现这个转化。”
  • “为什么他们(供应链)愿意为我投资,而不为别人?因为他们知道英伟达有能力消化他们的供应量,并且通过我们的下游销售出去。英伟达的下游供应链和需求规模如此巨大,他们才愿意在上游押注。”
  • “所有瓶颈持续时间都不超过两三年,一个也不例外。 我担心的是我们下游的事情——比如阻碍能源发展的政策。没有能源,你没法建立一个产业;没有能源,你没法推进再工业化。”

关于 CUDA 与专用芯片(ASIC)的博弈

  • “英伟达做的是加速计算,不是张量处理单元。加速计算的覆盖面宽泛得多……我们是唯一一家加速各种应用的公司,拥有庞大的生态系统。”
  • “英伟达的 GPU 是加速器,更像 F1 赛车。一般人开到时速一百公里没问题,但要把它推到极限,需要相当深厚的功力。我们大量使用 AI 来生成我们自己的 kernel。”
  • “英伟达的计算栈是世界上性价比最好的,没有例外。 没有任何一个平台能向我证明,它在今天有更好的性能/总拥有成本比。”

关于公司哲学与投资

  • “我们应该做尽可能多的必要事情,尽可能少的不必要事情。这意味着:我们在构建计算平台上做的工作,如果我们不做,我真的相信没有人会做。 但是,世界上不缺云服务——如果不是我们做,有人会出来做。”
  • “我的失误在于,我没有深刻认识到他们根本没有别的选择——风险投资永远不会向一家 AI 实验室投入 $50$ 到 $100$ 亿美元。这是我的盲区。如果能倒带,如果英伟达那时候就有今天这样的规模,我会很乐意那样做。”

关于中国市场与地缘政治(最受关注部分)

  • “创造一个安全世界的最佳方式是什么?把他们打成受害者、变成敌人,很可能不是最好的答案。他们是对手,我们希望美国赢,但我认为保持对话、保持研究交流,可能是最安全的做法。”
  • “这种失败者心态,这种失败者前提,对我毫无意义。 基于你所描述的前提就放弃一个市场,我无法接受这种想法。这没有意义,因为我不认为美国是失败者,我们的行业也不是失败者。”
  • “当你有充足的能源,它可以弥补芯片的不足。 如果你的瓦数是完全充裕、近乎免费的,你在乎每瓦性能做什么?你只管用旧芯片堆就行了。7nm 芯片本质上就相当于 Hopper 这一代,完全够用。”
  • “DeepSeek 第一天在华为芯片上发布的那天,对我们国家来说是一个糟糕的结果……如果所有 AI 模型在别人的技术栈上跑得最好,那你得解释一下,你真的要说那对美国是好事吗?”

关于软件、Agent 与未来

  • “今天我们受限于工程师的数量,明天这些工程师将被一大批 agent 支持,我们将以前所未有的方式探索设计空间……工具使用会让软件公司的规模飞速增长,这还没发生的原因是 agent 还不够擅长使用工具。”
  • “你可以依赖英伟达的一件事是:今年 Vera Rubin 会很出色,明年 Vera Rubin Ultra 会来,后年 Feynman 会来。每年你都可以像信钟表一样信我们。”

关于架构与工作负载

  • “我们可以这样做(研发多种架构),只是我们没有更好的想法。我们在模拟器里全都跑过了,结果是更差,所以我们不会那样做。”
  • “以前,高吞吐量总是更好。但我们认为,可能存在一个世界,有非常高单价的 token,即使工厂吞吐量更低,高单价也能弥补这个差距。这是我们决定扩展帕累托边界的原因。”

Nvidia 的供应链优势是否是其最大的护城河?

主持人 Dwarkesh:我们看到一大批软件公司的估值在崩跌,原因是市场预期 AI 会让软件商品化。有一种看似简单的逻辑是这样的:英伟达把 GDS2 文件发给台积电,台积电生产逻辑芯片和交换机,再和海力士、美光、三星的 HBM 封装在一起,然后发给台湾的 ODM 完成整机组装。从这个角度看,英伟达本质上是一家软件公司,只是别人在帮它制造——如果软件被商品化了,英伟达会不会也被商品化?

Jensen Huang:

归根结底,总有什么东西要把电子转化成 token,这个转化过程以及让 token 随时间变得越来越有价值,不是那么容易被商品化的。让一个 token 比另一个更有价值,就像让一个分子比另一个更有价值——其中涉及的艺术、工程、科学和发明,我们正在亲眼见证这一切发生。制造一个 token 所需的转化、加工、以及背后的科学,远未被深刻理解,这段旅程也远未结束。我不认为它会被商品化。你描述的那种框架,其实就是我自己对公司的心智模型:输入是电子,输出是 token,中间是英伟达。我们的工作就是做尽可能多的必要事情、尽可能少的不必要事情,来实现这个转化。"尽可能少"的意思是,凡是我不需要亲自做的,就拉一个合作伙伴进来,让它成为我生态的一部分。如果你今天看英伟达,我们大概拥有全球最大的合作伙伴生态,上游供应链、下游所有计算机厂商、应用开发者、模型厂商,全都在里面。

AI 是一个五层蛋糕(应用、模型、基建、芯片、能源),我们在每一层都有生态系统。我们尽量少做事,但我们必须做的那一部分,偏偏是极其艰难的。我不认为这会被商品化,实际上我也不认为企业软件公司和工具厂商会被商品化。今天大多数软件公司本质上是工具制造商,但我看到的是和大多数人相反的东西:AI agent 的数量将会指数级增长,工具的使用者也会指数级增长。Synopsys Design Compiler 的实例数量很可能要暴涨,使用布局工具、设计规则检查器的 agent 数量也会暴涨。今天我们受限于工程师的数量,明天这些工程师将被一大批 agent 支持,我们将以前所未有的方式探索设计空间,并且用的就是今天这些工具。工具使用会让软件公司的规模飞速增长,这还没发生的原因是 agent 还不够擅长使用工具。要么这些公司自己去构建 agent,要么 agent 变得足够强大来使用这些工具,我认为两者都会发生。

主持人 Dwarkesh:你在最新的财报里有将近一千亿美元的采购承诺,涉及代工厂、内存和封装。SemiAnalysis 报告说这个数字可能高达 2500 亿美元。有一种解读是:英伟达真正的护城河其实是锁住了多年的稀缺产能——别人可能也有加速器,但他们能拿到内存吗?能拿到逻辑芯片吗?这是不是英伟达未来几年最大的护城河?

Jensen Huang:

这是我们能做而别人很难做到的事情之一。我们在上游做出了巨大承诺,有一些是你提到的显性承诺,有一些是隐性的。比如,上游很多投资是由我们的供应链伙伴主动做出的,因为我跟他们的 CEO 说:"让我告诉你这个行业会有多大,让我来给你解释为什么,让我带你一起推演,让我给你看我看到的东西。"通过这个不断告知、启发、协同 CEO 们的过程,他们才愿意做投资。为什么他们愿意为我投资,而不为别人?因为他们知道英伟达有能力消化他们的供应量,并且通过我们的下游销售出去。英伟达的下游供应链和需求规模如此巨大,他们才愿意在上游押注。你看 GTC,人们惊叹于它的规模和参与者的层次——整个 AI 宇宙都在那里,360 度全覆盖,因为他们彼此需要见面。我把他们聚在一起,让下游看到上游,让上游看到下游,让所有人看到 AI 的最新进展。重要的是,他们都能亲眼见到 AI 原生公司和 AI 初创企业正在做什么,验证我一直告诉他们的东西。我花了大量时间直接或间接地让供应链、合作伙伴和生态理解我们面前的机遇。

我们的主题演讲里总有一部分会让人觉得有点沉重,像是在上课——没错,这正是我的想法。我需要确保上游和下游的整个供应链都能理解什么要来了、为什么会来、什么时候来、规模有多大,并且能像我一样系统地推演。关于你说的护城河,我们能够为未来而建设。如果未来几年的行业规模是万亿美元量级,我们有供应链能够承接。没有我们的覆盖范围,我们业务的速度——就像现金流一样,供应链也有流量和周转——没有人会为一个周转率低的架构去搭建供应链。我们能维持这种规模,只因为我们的下游需求如此强劲,他们看到了,听到了,一切都在眼前。

主持人 Dwarkesh:我想更具体地了解上游产能够不够。多年来你们一年翻一倍,算力供给一年超过三倍,在这个规模上翻倍真的很惊人。你是 TSMC N3 节点最大的客户,也是 N2 的大客户之一。今年 AI 整体要占到 N3 的 60%,明年根据 SemiAnalysis 的预测是 86%。当你已经占多数时,怎么翻倍?而且要年复一年地做到?

Jensen Huang:

在某种程度上,全球顺势需求大于上下游的供应。你想要的行业就是这样的,瞬时需求大于全行业总供给,反过来显然不好,如果差距太大,某个特定环节供应极度不足,整个行业就会蜂拥而上解决它。比如,你现在听到的关于 CoWoS 的讨论少了很多,原因是过去两年我们猛攻这个瓶颈,翻了好几个番。现在 TSMC 明白了:CoWoS 产能必须跟上逻辑和内存的需求节奏,他们正在以和逻辑同等的速度扩充 CoWoS 和未来封装技术。很长一段时间里,CoWoS 和 HBM 被视为特种产品,但现在它们不再是特种产品了——人们意识到这是主流计算技术,当然我们现在能够影响更大范围的供应链。AI 革命刚开始时,我今天说的这些话,五年前我就说了。有些人相信并投入,比如 Sanjay 和美光团队——我还清楚地记得那次会议,我清晰地说明了将会发生什么、为什么会发生、以及我的预测,他们真的押注了,我们在 LPDDR 和 HBM 内存上深度合作,他们大力投入,结果对他们来说非常好。有些人来得晚一点,但现在他们都到位了。每一个瓶颈都受到大量关注,而现在我们在提前几年预判瓶颈。比如,过去几年我们与 Lumentum、Coherent 以及整个硅光子生态系统的合作,彻底重塑了供应链。我们在 TSMC 周围建立起整套供应链,在 COUPE 上与他们合作,发明了一整套技术,并将专利授权给供应链,让整个生态保持开放。我们通过发明新技术、新工作流程、双面探针等新测试设备、投资公司,帮助他们扩大产能,来准备供应链迎接规模化的挑战。

如果我们劝阻人们不要去做软件工程师,我们就会面临软件工程师短缺的问题。同样的预言十年前发生过。有些末日预言者当时说:"无论如何,别去当放射科医生。"你可能现在还能在网上找到那些视频,说放射科将是第一个消失的职业,世界不再需要放射科医生。猜猜我们现在短缺什么?放射科医生。

主持人 Dwarkesh:你们是怎么做到每年 2 倍的逻辑制造量的?最终内存和逻辑都受制于 EUV。

Jensen Huang:

这些都不是短期内无法快速扩充的。两三年内都可以解决,只需要一个需求信号,这些东西不难复制。至于我要深入到供应链多远——有些要直接去谈,有些间接,有些则是:只要我能说服 TSMC,ASML 自然会跟进。我们需要考虑关键节点,但如果 TSMC 被说服了,几年内你就会有足够多的 EUV 机器。要点是:所有瓶颈持续时间都不超过两三年,一个也不例外。与此同时,我们每一代的计算效率提升 10 到 20 倍,Hopper 到 Blackwell 是 30 到 50 倍。我们用 CUDA 的灵活性不断发明新算法,推进效率提升,同时扩充产能。这些我都不担心。我担心的是我们下游的事情——比如阻碍能源发展的政策。没有能源,你没法建立一个产业;没有能源,你没法推进再工业化,没法把芯片制造、计算机制造、封装带回美国,没法造 EV 和机器人,没法建 AI 工厂。更多芯片产能,是两三年的问题;更多 CoWoS 产能,也是两三年的问题。

TPU 是否会打破 Nvidia 在 AI 计算领域的主导地位?

主持人 Dwarkesh:如果看 TPU,有一种观点认为,全球前三的模型里有两个——Claude 和 Gemini——是在 TPU 上训练的。这对英伟达意味着什么?

Jensen Huang:

我们做的是完全不同的东西。英伟达做的是加速计算,不是张量处理单元。加速计算被用于各种领域:分子动力学、量子色动力学、数据处理、数据框、结构化数据、非结构化数据,还有流体动力学和粒子物理学,此外也用于 AI。加速计算的覆盖面宽泛得多,虽然今天大家谈的都是 AI,AI 也确实非常重要,但计算的范围远远超过 AI。英伟达重新定义了计算的方式,从通用计算转向加速计算。我们的市场覆盖远超任何 TPU 或 ASIC 的可能。你看我们的市场地位——我们是唯一一家加速各种应用的公司,拥有庞大的生态系统,各种框架和算法都跑在英伟达上。因为我们的计算机是设计给外部运营商用的,任何运营商都可以购买我们的系统。大多数自研系统必须自己运营,因为它们从未被设计成足够灵活让别人来运营。正因为任何人都可以运营我们的系统,我们出现在每一朵云上,包括 Google、Amazon、Azure 和 OCI。如果你想靠出租赚钱,你最好有来自各行各业的大量客户生态。如果你想自用,我们也有能力帮助你,就像我们帮助 Elon 的 xAI 那样。而且因为我们可以让任何公司、任何行业的运营商部署,你可以用它为 Lilly 的科学研究和药物发现搭建超算,帮助他们运营自己的超算,用于整个药物发现和生物科学领域的多样化需求。有太多 TPU 无法覆盖的应用场景。英伟达把 CUDA 打造成了一个很棒的张量处理单元,同时它还能处理数据生命周期的每一个环节——处理、计算、AI,全都有。我们的市场机会更大,覆盖范围更广。因为我们支持世界上所有的应用,你在任何地方搭建英伟达系统,都知道会有客户用它,这是完全不同的事情。

主持人 Dwarkesh:这是个很长的问题。你有着惊人的营收,每季度 600 亿美元,但这不是来自医药或量子计算的,而是因为 AI 是一项前所未有的技术,以前所未有的速度增长。问题是,对于 AI 本身,什么才是最优的?

我和我的 AI 研究员朋友交流,他们说,当他们使用 TPU 时,那是一个专门为矩阵乘法优化的巨大脉动阵列;而 GPU 很灵活,适合有大量分支或不规则内存访问的场景。但 AI 是什么?就是一遍又一遍极其可预测的矩阵乘法。TPU 不需要为 warp 调度器或线程与内存 bank 之间的切换牺牲芯片面积,专门为当前算力增长的主体用例做了深度优化。你怎么看?

Jensen Huang:

矩阵乘法是 AI 的重要组成部分,但不是全部。如果你想发明新的 attention 机制,以不同方式做分片,或者从头设计一种全新架构——比如混合 SSM——你需要的是一个通用可编程的架构。如果你想创建一个融合扩散和自回归技术的模型,你同样需要通用可编程架构。我们能跑你能想到的一切,这是我们的优势。可编程性让新算法的发明变得容易得多,而发明新算法才是 AI 进步那么快的根本原因。TPU 和所有其他东西一样受摩尔定律影响——摩尔定律每年大概提升 25%。要真正实现 10 倍、100 倍的飞跃,唯一的方式是每年都从根本上改变算法和计算方式。这才是英伟达的核心优势。当我最初宣布 Blackwell 的能效将比 Hopper 高 35 倍时,没人相信。然后 Dylan 写了一篇文章说我低报了,实际上是 50 倍,纯靠摩尔定律做不到这一步。我们的解决方案是新的模型设计——比如 MoE,跨计算系统并行化、分片化、分布式部署。没有 CUDA 来生成新的 kernel,我根本不知道从哪里下手。这是可编程架构与英伟达极致协同设计能力的结合。我们可以把部分计算卸载到 NVLink 的 fabric 上,或者卸载到 Spectrum-X 的网络层。我们可以同时在处理器、系统、fabric、库和算法多个层面推进变革。没有 CUDA,我不知道从何开始。

主持人 Dwarkesh:你 60% 的营收来自五大超大规模云厂商,在不同的客户时代——比如跑实验的教授——他们需要 CUDA,没办法用其他加速器,必须用 PyTorch 和 CUDA。但这些超大规模厂商有资源写自己的 kernel,事实上他们也必须这样做,才能在特定架构上榨出最后 5% 的性能。Anthropic 和 Google 大部分跑自己的加速器或 TPU 和 Trainium,OpenAI 即便用 GPU 也有 Triton,因为他们需要自己的 kernel,一路下到 CUDA C++,绕过 cuBLAS 和 NCCL 自己搭了一套栈,而且还能编译到其他加速器。

如果你大多数客户都能在某种程度上替代 CUDA,CUDA 还真的是让前沿 AI 发生在英伟达上的那个决定性因素吗?

Jensen Huang:

CUDA 是一个极其丰富的生态系统。如果你想先在任何架构上构建,先在 CUDA 上构建是非常明智的选择,因为生态系统非常丰富,我们支持每一种框架。如果你想创建自定义 kernel,我们对 Triton 做出了巨大贡献——Triton 的后端有大量英伟达技术。我们很乐意帮助每一个框架变得尽可能出色。有很多框架:Triton、vLLM、SGLang,以及现在爆炸式增长的后训练和强化学习框架,比如 verl 和 NeMo RL。在后训练和强化学习这整个领域,一切都在爆发式扩张。所以如果你想在某个架构上构建,选 CUDA 是最明智的,因为你知道生态丰富,当出问题时,更可能是你的代码有问题,而不是底层那座代码山有问题。出问题时,是你的问题还是机器的问题?你希望永远是你的问题,希望能信任那台机器。当然我们自己也还有很多 bug,但我们的系统已经被打磨得足够好,你至少可以在这个基础上构建。其次,作为一个在任何地方构建软件的开发者,最重要的事情是:你要有一个庞大的装机基数,让你写的软件能跑在大量其他机器上。你不是为自己写软件,而是为你的整个机群,或者所有别人的机群写软件,因为你是框架构建者,英伟达 CUDA 生态系统是真正的核心宝藏。我们现在有几亿个 GPU 分布在外面,从 A10、A100、H100、H200,到 L 系列、P 系列,各种尺寸和形态。如果你是一家机器人公司,你希望那套 CUDA 技术栈直接跑在机器人本身里,我们无处不在。庞大的装机基数意味着,一旦你开发出软件或模型,它在任何地方都有用。这种价值是无可替代的。最后,我们出现在每一朵云上这个事实让我们真正独一无二。如果你是 AI 公司或开发者,你不确定会选哪家云服务商,或者想在哪里跑。我们到处都能跑,包括你自己的私有部署。生态系统的丰富性、装机基数的广泛性、以及我们落地的多样性,三者结合让 CUDA 极具价值。

主持人 Dwarkesh:但我好奇的是这些优势对你的主要客户是否同样重要?大客户中有很多人能够自己搭建软件栈。尤其是当 AI 在有严格验证闭环的领域变得越来越强大,这个问题就是——所有超大规模厂商都可以自己写 kernel 吗?英伟达在性价比上依然很好,他们可能还是会倾向于英伟达,但问题是,这会不会变成一个单纯看谁的规格最好、每一美元能买到多少算力和内存带宽的竞争?历史上英伟达的毛利率超过 70%,这正是因为 CUDA 护城河。如果大多数客户实际上能够替代 CUDA,这个毛利率还能维持吗?

Jensen Huang:

我们给这些 AI 实验室分配的工程师数量大到惊人,专门和他们合作、优化他们的技术栈。原因很简单:没有人比我们更了解自己的架构。这些架构不像 CPU 那样通用——CPU 就像凯迪拉克,平稳的豪华轿车,速度不快,但人人都能开,有定速巡航,一切都很顺手。英伟达的 GPU,是加速器,更像 F1 赛车。一般人开到时速一百公里没问题,但要把它推到极限,需要相当深厚的功力。我们大量使用 AI 来生成我们自己的 kernel。我相当确信,在相当长一段时间内,我们依然是不可或缺的。我们的专业知识帮助我们的 AI 实验室伙伴从他们的技术栈里再挤出 2 倍的效能——而且往往非常轻松。我们优化完一个特定 kernel,或者完成对他们整个栈的优化,他们的模型加速 2 倍、3 倍、50% 是非常正常的事情。这是个巨大的数字,尤其当你谈的是他们已经有的大量 Hopper 和 Blackwell 的装机基数时——如果效率翻倍,那直接对应翻倍的营收。英伟达的计算栈是世界上性价比最好的,没有例外。没有任何一个平台能向我证明,它在今天有更好的性能/总拥有成本比。没有一家。InferenceMAX 基准就放在那里,欢迎所有人跑,TPU 不来,Trainium 不来。我欢迎他们用 InferenceMAX 展示他们声称的 40% 成本优势,没人想来。其次,你说 60% 的客户是前五大,但那其中大部分都是对外业务——AWS 上的大量英伟达是给外部客户的,不是 AWS 自用;Azure 上的客户全是外部客户;OCI 也是。他们之所以偏好我们,是因为我们的覆盖范围极广,我们能带来各行各业的顶级客户。这些客户都建在英伟达上,因为我们的覆盖范围和灵活性无可比拟。飞轮就是:装机基数、架构可编程性、生态丰富性,加上全球有数万家 AI 公司。如果你是其中一个 AI 初创企业,你会选哪种架构?最丰富的那个。最大装机基数的那个。生态最丰富的那个。这就是飞轮运转的方式,加上最高的单位算力收益和最高的每瓦性能——如果你的合作伙伴建了一个 GW 的数据中心,那个数据中心要能产出最多的 token 和最大的营收,我们是全球最高 token 每瓦的架构。如果你的目标是出租基础设施,我们有全球最多的客户。这就是飞轮能转的原因。

主持人 Dwarkesh:Anthropic 刚刚宣布了一个多 GW 级别、与 Broadcom 和 Google 合作的 TPU 大单,而且他们大多数算力都来自 TPU。如果我看这些大型 AI 公司,似乎有一大块算力正在从英伟达转移出去。如何解释这个现象?

Jensen Huang:

Anthropic 是一个特例,不是一种趋势。没有 Anthropic,TPU 增长从何而来?那是 100% 来自 Anthropic 的。没有 Anthropic,Trainium 的增长从何而来?同样是 100% 来自 Anthropic。这一点相当广为人知,大家基本都理解。这不是说有一大堆 ASIC 机会涌现,只有一个 Anthropic。

我不会因为别人用了其他东西、在尝试新方向而感到不快。如果他们不去试试其他东西,怎么知道我们有多好?有时候需要一个参照点来提醒自己。我们必须持续赢得我们的市场地位。总有各种大话,看看被取消了多少个 ASIC 项目。要建出比英伟达更好的东西,不是那么容易的事情。英伟达哪里出了问题,大家才会觉得这说得通?因为我们的规模,我们的迭代速度,我们是全球唯一一家每年都在大跨步前进的公司。

ASIC 的利润率相当高,英伟达是 70%,ASIC 是 65%。ASIC 的毛利率从我能看到的情况来说很不错,他们自己也这样认为,对自己不错的 ASIC 毛利率颇为自豪。所以,你问为什么会这样。很久以前,我们根本没有能力这样做。当时我没有深刻理解,建立像 OpenAI 和 Anthropic 这样的基础 AI 实验室有多困难,以及他们需要来自供应商本身的巨额投资。我们当时没有能力向 Anthropic 做数十亿美元的投资来换取他们用我们的算力。Google 和 AWS 有这个能力,他们在初期大力投资 Anthropic,Anthropic 因此使用了他们的算力。我当时没有这个条件。我的失误在于,我没有深刻认识到他们根本没有别的选择——风险投资永远不会向一家 AI 实验室投入 50 到 100 亿美元,并期待它变成今天的 Anthropic。这是我的盲区。但即使我当时理解了,我们也不见得有那个条件,但我不会再犯同样的错误了。我很高兴投资 OpenAI,很高兴帮助他们扩大规模,我认为这是必须做的事情。当我们有能力时,当 Anthropic 来找我们,我很高兴成为投资人,很高兴帮助他们扩大规模。只是当初没能做到。如果能倒带,如果英伟达那时候就有今天这样的规模,我会很乐意那样做。

为什么 Nvidia 不直接成为超大规模云服务商?

主持人 Dwarkesh:多年来英伟达一直是 AI 领域赚钱的那个,赚了很多很多钱。现在你们开始投资了,据报道你向 OpenAI 投了 300 亿美元,向 Anthropic 投了 100 亿美元。他们的估值已经大涨,而且肯定会继续涨。在那么多年里,你一直在给他们提供算力,你看到了方向,他们的价值在一年前还只有今天的十分之一——而那时你就有大量现金。

有一个设想是:要么英伟达自己成立一个基础模型实验室,要么以低得多的估值做现在这样的投资。你有那个现金,为什么不早点做?

Jensen Huang:

我们在能做的时候做了。如果我能早一点,我会做的。当时 Anthropic 需要我们行动的那一刻,我们确实没有那个条件,也还没有那样的认知和思维模式。

是投资规模的问题。我们那时候从未在公司外部做过投资,而且没投过那么大的金额。我们没有意识到需要那样做。我一直以为他们可以像所有公司一样去找 VC 融资。但他们想做的事,不可能靠 VC 完成。OpenAI 想做的事,也不可能靠 VC 完成。这就是他们的高明之处,那也是他们的聪明所在——他们当时就意识到必须走一条不同的路。我很高兴他们这样做了。即使因为我们的缺席,Anthropic 不得不转向别人,我仍然很高兴这一切发生了。Anthropic 的存在对世界是好事,我为此感到高兴。

主持人 Dwarkesh:你仍然在赚大钱,而且季度接着季度赚得更多。现在的问题是,英伟达现在应该用这些钱做什么?有一种答案是:现在有一整套中间商生态系统,把 CapEx 转化成 OpEx,提供给这些实验室出租算力——因为芯片很贵,但随着 AI 模型越来越好,它们在生命周期内能产生的价值越来越大。英伟达有钱做 CapEx,据报道你在 CoreWeave 背书了高达 63 亿美元并投资了 20 亿美元。为什么英伟达不自己做云服务,自己做超大规模厂商,把这些算力出租出去?你有足够的现金。

Jensen Huang:

这是公司的哲学问题,而且我认为它是明智的。我们应该做尽可能多的必要事情,尽可能少的不必要事情。这意味着:我们在构建计算平台上做的工作,如果我们不做,我真的相信没有人会做。如果我们不承担我们承担的风险——如果我们没有以我们的方式构建 NVLink,没有搭建整个技术栈,没有以我们的方式培育生态,没有专注于 CUDA 长达 20 年且大部分时间都在亏损——如果不是我们做,没有人会做。如果我们没有创建所有那些 CUDA-X 领域专属库,无论是光线追踪、图像生成,还是早期 AI 的种种工作,无论是数据处理、结构化数据处理还是向量数据处理,如果不是我们做,没有人会做。比如我们为计算光刻学创建了 cuLitho——如果不是我们,没有人会。

所以加速计算不会以它今天的方式发展,如果不是我们在做这件事。所以我们应该做。应该全力以赴,把所有力量集中到做这件事上。但是,世界上不缺云服务——如果不是我们做,有人会出来做。按照"做尽可能多的必要、尽可能少的不必要"这个哲学来看,如果不支持 CoreWeave 存在,这些新兴 AI 云就不会出现。如果没有帮助 CoreWeave,他们就不会存在。如果没有支持 Nscale,他们不会有今天。如果没有支持 Nebius,他们不会有今天。现在他们都发展得很好。这是一种商业模式吗——我们应该做尽可能多的必要,尽可能少的不必要。所以我们在生态系统中投资,因为我希望我们的生态系统蓬勃发展。我希望这个架构和 AI 能与尽可能多的行业、尽可能多的国家连接,让全球能够建立在 AI 之上,建立在美国科技栈之上,这就是我们正在追求的愿景。

英伟达最初成立时,有 60 家三维图形公司,我们是最不可能存活下来的那一家。英伟达当时的图形架构恰恰是错的,不是差一点,是截然相反的方向,开发者根本没法支持。从良好的第一性原理出发,我们推导出了一个错误的答案,任何人都会把我们划掉。但我们现在就在这里,所以我有足够的谦逊去认识到这一点:不要押注赢家。要么让他们自己决胜,要么给所有人机会。

主持人 Dwarkesh:但你列举了一堆没有英伟达就不会存在的新兴云,这和"不挑赢家"怎么兼容?

Jensen Huang:

首先,他们要想存在,要主动找来求助。当他们想存在、有商业计划、有专业能力和热情的时候——当然,他们本身也必须具备一定实力。但如果在最后,他们需要一些投资来起步,我们会在那里支持他们。一旦他们的飞轮转起来,我们希望他们尽快独立。你的问题是"我们是否想做融资业务"——答案是不。有专门做融资的公司,我们更愿意和所有这些融资方合作,而不是自己去做融资商。我们的目标是专注于我们做的事,把商业模式保持尽可能简单,并支持我们的生态。当像 OpenAI 这样的公司,在 IPO 之前需要 300 亿美元规模的投资,而我们深信他们将成为一家了不起的公司——他们今天已经是了,他们未来会是一家令人难以置信的公司,世界需要他们存在,世界希望他们存在,我希望他们存在,他们的风正在吹——支持他们,让他们成长。这样的投资我们会做,因为他们需要我们去做。但我们不是要做尽可能多的事情,我们是要做尽可能少。

主持人 Dwarkesh:GPU 分配这个话题——我们一直处于 GPU 短缺状态。英伟达据说按照一套非单纯竞价的方式分配稀缺产能,比如保证 CoreWeave、Crusoe、Lambda 这样的新兴云能拿到一些。为什么这对英伟达是好事?首先,你认同这个“划分市场份额”的描述吗?

Jensen Huang:

不是,你的前提是错的,我们对这些事情考虑得非常周到。首先,如果你不下采购订单(PO),说多少话都没用。没有 PO 之前,我们能做什么?所以第一件事,我们非常努力地和所有人一起做预测,因为这些东西需要很长时间来建造,数据中心也需要很长时间来建造。我们通过预测来协调供需——这是第一要务。其次,我们尽可能和更多人一起做预测,但最终还是得下订单。

或许因为某些原因,你没有及时下单,那我能怎么办?先到先得。如果你还没准备好——数据中心没准备好,或者某些配件还没到位导致无法上线——我们可能会决定先服务另一个客户,这只是为了最大化自己工厂的产出效率,会做一些这样的调整。除此之外,优先原则就是先来先得,得下 PO 才算数。关于 Larry 和 Elon 跟我吃饭苦苦求 GPU 的那些故事,那是完全不存在的。我们确实吃了饭,那是一顿很棒的晚餐,但他们从来没有求 GPU,他们只是需要去下订单。一旦下了订单,我们就尽全力争取产能。我们不复杂。

主持人 Dwarkesh:所以有一个队列,根据你的数据中心是否准备好、你何时下了采购订单来决定你拿到货的时间。但听起来也不是完全按出价最高的来。为什么不这样做?

Jensen Huang:

我们从不这样做,也永远不会。这是一种不好的商业实践,你定好价格,人们决定买还是不买。我了解芯片行业里有其他公司会在需求高涨时调价,但我们不这样做。这从来不是我们的做法。你可以依赖我们。我更倾向于做一个可以依赖的行业基础设施。不需要猜测——我报给你一个价格,就是那个价格,需求再旺盛也是那个价格。英伟达和台积电的关系也是这样,双方没有法律合同,有时我占便宜,有时我吃亏,但整体来说这段关系非常好,我完全信任他们,完全依赖他们。你可以依赖英伟达的一件事是:今年 Vera Rubin 会很出色,明年 Vera Rubin Ultra 会来,后年 Feynman 会来。每年你都可以依赖我们。你去全球找任何一个 ASIC 团队,看能不能说出"我可以把我整个生意都押在你身上,保证你每年都会在这里陪着我,token 成本每年降一个数量级,我可以像信钟表一样信你"——对于其他铸造厂你绝对无法说这句话。但对于英伟达,今天你可以说。如果你想买价值 10 亿美元的 AI 工厂算力,没问题;1 亿美元,没问题;1000 万美元,一个机柜,一张显卡,都没问题;1000 亿美元的订单,也没问题——我们是全球唯一一家能让你这么说的公司。我们和台积电也是如此:买一台还是买 10 亿台,都没问题,只要走完计划流程、做好所有成熟的事情就可以。英伟达成为全球 AI 行业基础设施的这个地位,花了几十年才到达,需要巨大的承诺和奉献,需要公司的稳定性和一致性。

我们是否应该向中国出售 AI 芯片?

主持人 Dwarkesh:Anthropic 几天前刚刚发布了 Claude Mythos 预览版,这个模型他们甚至不公开发布,因为他们说它具有如此强大的网络攻击能力,在修补完那些零日漏洞之前,世界还没做好准备。他们说它在每个主要操作系统和每个浏览器中发现了数以千计的高危漏洞,甚至在 OpenBSD 中发现了一个——那是专门设计来没有零日漏洞的操作系统——找到了一个存在了 27 年的漏洞。

如果中国的公司、实验室和政府拥有 AI 芯片来训练出像 Claude Mythos 这样具备网络攻击能力的模型,并运行数百万个实例,那是对美国公司和国家安全的威胁吗?

Jensen Huang:

首先,Mythos 是在相当普通的算力上、用相当普通的规模训练出来的,来自一家非凡的公司。中国的计算能力和训练所需的计算资源都非常充足,所以你首先要认识到:芯片在中国是存在的,他们制造了全球 60% 甚至更多的主流芯片,这对他们来说是一个非常大的产业。他们有一些世界上最出色的计算机科学家,而且这些 AI 实验室里大多数 AI 研究员都是华裔,他们拥有全球 50% 的 AI 研究员。所以问题是:考虑到他们已经拥有的这些资产——充足的能源、充足的芯片、大量 AI 研究员——如果你担心他们,创造一个安全世界的最佳方式是什么?把他们打成受害者、变成敌人,很可能不是最好的答案。他们是对手,我们希望美国赢,但我认为保持对话、保持研究交流,可能是最安全的做法。这是一个因为我们目前对中国作为对手的态度而严重缺失的领域。AI 研究员之间的交流是必须保持的,我们必须尝试共同商定 AI 不能被用于哪些用途。至于发现软件漏洞,那当然就是 AI 应该做的事情。AI 会发现很多软件中的 bug 吗?当然会,因为有很多很多 bug,AI 软件本身里就有大量 bug。这正是 AI 本来就应该做的事情,我很高兴 AI 已经达到了这种能力水平。

一个被低估的方面是围绕网络安全的整个生态,包括 AI 网络安全、AI 安全和 AI 隐私。有一大批 AI 初创公司正在为我们打造这样的未来:一个能力惊人的 AI agent,周围有成千上万个 AI agent 守护着它,保障它的安全性和安全运行。这个未来必然会到来。一个 AI agent 四处乱跑、没有任何监控的想法本来就很疯狂。我们非常清楚这个生态系统需要蓬勃发展。而这个生态需要开源,需要开放模型,需要开放的技术栈,这样所有这些 AI 研究员和优秀的计算机科学家才能去构建能保障 AI 安全的 AI 系统。因此我们需要确保的一件事,是保持开源生态的活力。这一点不能被忽视,而大量的开源贡献来自中国。我们当然希望美国拥有尽可能多的算力,我们受限于能源,但有很多人在解决这个问题,我们不能让能源成为我们国家的瓶颈,但我们同时也希望全球所有 AI 开发者都在美国科技栈上开发,让 AI 的进步——尤其是开源的进步——对美国生态系统可及。如果搞出两个生态系统——开源生态只跑在外国技术栈上,封闭生态跑在美国技术栈上——那对美国来说是一个糟糕的结果,我绝不这样做。

主持人 Dwarkesh:那么这个担忧的核心,回到算力差距和黑客问题上是:有估计认为,因为他们在 7nm、没有 EUV——出口管制限制了光刻机——他们能生产的算力,只有美国的十分之一。那么他们最终能训练出像 Mythos 这样的模型吗?能。但因为我们有更多算力,美国实验室能先做到这一点。因为 Anthropic 先做到了,他们说"我们先保留一个月,让所有美国公司来修复漏洞,然后再发布"。而且即便他们也训练出了这样的模型,大规模部署的能力也很重要——如果你有一个网络黑客,有一百万个比有一千个危险得多。所以推理算力非常关键。事实上,他们拥有那么多如此出色的 AI 研究员,这正是让人担忧的地方,是算力让这些工程师研究员更有效率。

如果你和美国任何一家 AI 实验室交流,他们都说瓶颈是算力。那么,难道不是美国公司因为有更多算力、先于中国达到 Mythos 这个能力水平,让社会有时间准备,这样不是更好吗?

Jensen Huang:

我们应该永远是第一,我们应该永远拥有更多。但为了实现你所描述的结果,你必须走向极端——他们必须完全没有算力。如果他们有一些算力,问题就是需要多少。中国拥有的算力是巨大的,你在谈的是全球第二大计算市场。如果他们想汇聚算力,他们有充足的算力可以汇聚。

AI 是一个并行计算问题,对吧?那为什么他们不能简单地把 4 倍、10 倍的芯片连在一起,他们有大量能源。他们有完全空置的数据中心、电已经通好了,中国有鬼城,他们也有废弃的数据中心,他们有大量基础设施容量。如果他们想,他们只需要把更多芯片堆在一起,哪怕是 7nm 的。他们制造芯片的能力是全球最大之一,整个半导体行业都清楚他们垄断了主流芯片,他们的产能是过剩的、太多了,所以中国没有 AI 芯片这个想法完全是无稽之谈。

当然如果你问我,如果全世界都没有算力,美国会不会走得更远?但那根本不是一个可能发生的结果,那根本不是真实的场景,他们已经有充足的算力了。你所担心的那个门槛,他们已经跨过了,而且超过了。所以我认为你误解了 AI 是一个五层蛋糕,而最底层是能源,当你有充足的能源,它可以弥补芯片的不足。如果你有充足的芯片,它可以弥补能源的不足。比如,美国的能源是稀缺的,这正是为什么英伟达必须不断推进我们的架构,做这种极致的协同设计,让我们交付的每一批芯片——因为能源如此有限——每瓦的吞吐量都极其出色。但如果你的瓦数是完全充裕、近乎免费的,你在乎每瓦性能做什么?你只管用旧芯片堆就行了。7nm 芯片本质上就相当于 Hopper 这一代。今天的模型大部分都是用 Hopper 这代训练的,7nm 芯片完全够用。丰富的能源是他们的优势。但如果他们能制造出足够多的芯片呢——华为刚刚经历了公司历史上单年规模最大的一年,出货了几百万颗,几百万颗比 Anthropic 拥有的多得多。有人质疑 SMIC 能生产多少逻辑,以及内存——我在告诉你现实:他们有充足的逻辑,他们有充足的 HBM2 内存。

主持人 Dwarkesh:但是训练和推理这些模型的瓶颈往往是内存带宽。如果他们用的是 HBM2,和你们最新的产品相比,可能有将近一个数量级的内存带宽差距,这是巨大的差距。

Jensen Huang:

华为是一家网络公司,而且你不需要 EUV 来做最先进的 HBM——这根本不对。你可以把它们连在一起,就像我们用 NVL72 把它们连在一起一样。他们已经展示了用硅光子把所有算力连成一台巨型超算。事实是,他们的 AI 发展进展相当顺利。世界上最好的 AI 研究员,因为算力受限,所以想出了极其聪明的算法。记住我刚才说的:摩尔定律每年提升约 25%,但通过优秀的计算机科学,算法性能还能再提升 10 倍。

优秀的计算机科学才是真正的杠杆。MoE 是一个伟大的发明,毫无疑问。各种出色的 attention 机制减少了计算量。我们必须承认 AI 的大多数进步来自算法的进步,而不只是原始硬件。现在如果大多数进步来自算法和计算机科学与编程,那你告诉我,他们那支 AI 研究员大军难道不是他们最根本的优势?我们已经看到了,DeepSeek 不是一个可以忽视的进展。DeepSeek 第一天在华为芯片上发布的那一天,对我们国家来说是一个糟糕的结果。

主持人 Dwarkesh:目前 DeepSeek 可以在任何加速器上运行,因为它是开源的。为什么这种情况在未来不会延续?

Jensen Huang:

如果它针对华为架构做了优化,我们的架构就会处于劣势。你描述了一种我认为是好消息的情况——一家公司开发了软件、开发了 AI 模型,而它在美国技术栈上跑得最好,那是好消息,你把它作为坏消息的前提,我给你坏消息的版本:全球 AI 模型都在被开发,而且跑在非美国硬件上效果最好,那对我们来说是坏消息。

你拿一个针对英伟达优化的模型,试着在其他显卡上去跑,它们跑得没有更好。英伟达的成功本身就是最好的证明。AI 模型在我们的技术栈上创建、在我们的技术栈上跑得最好——这有什么难理解的?去全球南方,去中东看看,开箱即用,如果所有 AI 模型在别人的技术栈上跑得最好,那你得解释一下,你真的要说那对美国是好事吗?

主持人 Dwarkesh:假设中国公司先于美国达到下一个 Mythos,他们先发现了美国软件的所有安全漏洞,但他们是在英伟达芯片上做到的,然后把模型发布到全球南方。跑在英伟达芯片上——这有什么好的?

Jensen Huang:

这不好,确实不好,所以我们不能让这发生。

主持人 Dwarkesh:为什么你认为,如果我们不向他们卖芯片,华为就会精确地填补这个空缺?他们在芯片上是落后的,对吧?

Jensen Huang:

证据就在眼前,他们的芯片产业是巨大的,他们可以用两倍数量的芯片,他们有大量随时可用的能源,需要填满芯片,而且他们擅长制造。我相信他们最终能超产所有人。如果有这么几个关键的年份,那在这几年里,我们必须确保全球所有 AI 模型都建立在美国技术栈上。

你为什么要让 AI 行业的某一层因此失去整个市场,来换取另一层的利益?五层都需要成功,每一层都很重要。

主持人 Dwarkesh:退一步来讲,中国现在被卡在 7nm,而你会继续前进到 3nm、2nm、1.6nm 的 Feynman。当你到了 1.6nm,他们还在 7nm,即便过几年也一样。你认为,你越来越多的算力加上他们的丰富能源,相当于他们在不断获得更多算力。

Jensen Huang:

我们应该永远是第一,应该永远拥有更多。但为了实现你描述的那种结果,他们必须没有任何算力。如果他们有一些算力,问题就是需要多少。

美国拥有的算力比世界上任何地方多 100 倍,美国应该领先。英伟达确保美国实验室总是第一个听到新进展、第一个有机会购买。如果他们没有足够的钱,我们甚至投资他们。美国应该领先,我们尽一切努力确保美国领先——这是第一要点,你同意吗?我们正在做一切能做的事情。但如果向中国卖芯片让他们在算力上摆脱瓶颈,这如何帮助美国保持领先?

我们为美国准备了 Vera Rubin。第一,为什么我们不提出一个更平衡的监管方案,让英伟达能在全球获胜,而不是拱手相让整个世界?为什么你希望美国放弃全球市场?芯片行业是美国生态系统的一部分,是美国技术领导力的一部分,是 AI 生态系统的一部分,是 AI 领导力的一部分。为什么你的政策思路会导致美国放弃全球大部分市场?

主持人 Dwarkesh:如果那些算力可以运行一个能对美国软件做零日漏洞攻击的模型,那怎么能说那不是一种武器?

Jensen Huang:

首先,解决这个问题的方式是与研究员对话,与中国对话,与所有国家对话,确保人们不会以那种方式使用技术。这个对话必须发生。第二,我们还需要确保美国领先,Vera Rubin、Blackwell 在美国大量供应,堆积如山。美国有出色的 AI 研究员,状态很好,我们应该保持领先。但是我们也必须认识到 AI 不只是一个模型,AI 是一个五层蛋糕,行业的每一层都很重要,我们希望美国在每一层都获胜,包括芯片层。放弃整个市场,不会让美国在技术竞争中长期获胜,在芯片层、在计算栈层都不会。这是事实。

主持人 Dwarkesh:那么,向他们卖芯片如何帮助我们长期获胜?特斯拉很长时间向中国卖非常好的电动车,iPhone 也在中国卖,但都没有造成锁定效应,中国的 EV 现在占主导地位,他们的智能手机也在占主导地位。

Jensen Huang:

当我们开始今天的对话时,你用了"护城河"这个词来描述英伟达的地位。对我们公司而言,最重要的单一因素是我们生态系统的丰富性,而这关乎开发者。50% 的 AI 开发者在中国,美国不应该放弃这些人。

我们必须继续创新,我们的市场份额在增长,而不是下降。即便我们在中国市场竞争,也会把那个市场让给别人——这种假设,你不是在跟一个认为自己是失败者的人对话。那种失败者心态,那种失败者前提,对我毫无意义。我们不是一辆汽车,不是汽车这种今天买这个品牌、明天换另一个品牌、轻而易举的东西。计算不是那样的,x86 的存在是有原因的,ARM 如此难以替代是有原因的。这些生态系统很难被取代,需要大量的时间和精力,而大多数人根本不想这样做。所以我们的工作是继续培育那个生态,持续推进技术,在市场上保持竞争力。基于你所描述的前提就放弃一个市场,我无法接受这种想法。这没有意义,因为我不认为美国是失败者,我们的行业也不是失败者,那种失败心态对我毫无意义。

如果那些芯片上运行的 AI 模型具备网络攻击能力,或者那些芯片正在训练具有网络攻击能力的模型并运行更多实例,它不是核武器,但它确实能启用一种武器。你的逻辑,用同样的道理也可以套用在微处理器和 DRAM 上,乃至电力上。事实上,我们对中国有大量出口管制,涵盖各种芯片制造技术,但我们还是向中国出售大量 DRAM 和 CPU,而且我认为这是对的。

主持人 Dwarkesh:我猜这又回到了 AI 是否不同的根本问题。如果 AI 具备找到软件零日漏洞的能力,我们是否希望尽量减少中国的能力,让他们最后达到那一步,并且无法大规模部署?

Jensen Huang:

我们希望美国领先,我们能做到这一点。如果芯片已经在那里,他们用它训练了这个模型,我们怎么控制这个情况?我们有大量算力,有大量 AI 研究员,我们在尽全力快速奔跑。

主持人 Dwarkesh:但他们有理由从你这里购买,我们有中国公司创始人说他们的算力是瓶颈。

Jensen Huang:

因为我们的芯片更好。总体上来说,我们的芯片更好,这毫无疑问。在没有我们的芯片的情况下——你能承认华为经历了创纪录的一年吗?能承认大量芯片公司上市了吗?能承认吗?能承认我们曾经在那个市场有很大份额,而现在没有了吗?我们还可以承认中国是全球科技行业的约 40%。为了一家公司的利益,就把这个市场拱手相让,是对美国的一种损害,是对国家安全的损害,是对技术领导力的损害,对我毫无意义。

主持人 Dwarkesh:我困惑的是你好像在说两件不同的事。一是,如果我们被允许竞争,我们会在与华为的竞争中获胜,因为我们的芯片会好得多。二是,没有我们,他们也会做同样的事情。这两件事怎么能同时成立?

Jensen Huang:

这显然是成立的。在没有更好的选择时,你会选你唯一有的选择。这有什么不合逻辑的?逻辑完全正确。他们想要英伟达芯片的原因是它更好。更好有多种含义——更容易编程,更好的生态系统。当然,不管"更好"意味着什么,我们肯定会向他们卖算力,那又怎样?事实是,我们能从中受益。别忘了我们得到了美国技术领导力的好处,我们得到了在美国技术栈上工作的开发者的贡献,我们得到的好处是那些 AI 模型扩散到世界其他地方,美国技术栈因此是最好的。我们可以继续推进和扩散美国技术,这是正向的,这是美国技术领导力非常重要的一部分。你倡导的政策导致了美国电信行业基本上被从全世界赶出去,到现在我们甚至不掌控自己的电信了。我不认为那是聪明的做法,有点短视,而且带来了我现在跟你描述的、你似乎很难理解的非预期后果。好,让我们退一步。

主持人 Dwarkesh:问题的核心是:有潜在的好处,也有潜在的代价,我们要判断代价是否值得付。算力是训练强大模型的输入,强大模型确实有强大的攻击能力。Anthropic 先拿到 Mythos 级别能力这件事是好的,他们现在会保留这个能力一段时间,让美国公司和政府修补漏洞,在发布之前先做好防御。如果中国有更多或者汇集更多算力,能更早训练出 Mythos 级别的模型并大规模部署,那将是非常糟糕的。美国有更多算力、有像英伟达这样的公司,正是我们没有出现那种情况的原因之一。这就是向中国出售芯片的代价。所以先把好处放一边,你承认这是一个潜在的代价吗?

Jensen Huang:

我同样会告诉你潜在的代价是:我们让 AI 技术栈中最重要的层之一——芯片层——丢失了整个市场,全球第二大市场,这样他们就能发展出规模,发展出自己的生态系统,让未来的 AI 模型以和美国技术栈截然不同的方式做优化。随着 AI 扩散到世界其他地方,他们的标准、他们的技术栈将因为他们的模型是开放的而超越我们的。美国应该赢得那个五层蛋糕的每一层,包括芯片层。所有五层都很重要,我们应该赢得全部。

主持人 Dwarkesh:但中国是全球开源软件最大的贡献者、开放模型最大的贡献者,而且今天都建立在美国技术栈、英伟达上。

Jensen Huang:

正确。今天建立在美国技术栈上,但如果我们被迫离开中国,首先这是一个政策错误,显然已经产生了反作用,并且已经导致了我现在描述给你的这些情况——加速了他们的芯片行业,迫使他们整个 AI 生态系统把注意力集中在内部架构上。现在还不算太晚,但这些事情已经发生了。未来几年,你会看到他们不会停留在 7nm——他们擅长制造,他们会继续从 7nm 继续推进。5nm 和 7nm 之间有 10 倍的差距吗?答案是没有。架构重要,网络重要,能源重要。所有这些都很重要,不是你试图简化的那种样子。如果你把它简化成"是否把计算等同于核武器",那你就把整个问题引到了错误的地方。

AI 不是核武器,AI 不能被等同于各种类型的武器,这会让每个人都害怕 AI,这对美国有什么好处?如果我们吓走所有想成为软件工程师的人,说 AI 会干掉所有软件工程师,那我们就会面临软件工程师短缺。所以我要说的是,当你构建了如此极端的前提,把一切都从零变到无穷大,你最终是在以一种根本不真实的方式吓唬人们。生活不是那样的。我们希望美国是第一吗?当然。我们需要在那个技术栈的每一层都领先吗?当然。

今天我们谈 Mythos 是因为它很重要,但再过几年,当我们希望美国技术栈扩散到全球——扩散到印度、中东、非洲、东南亚——当我们国家希望出口技术、出口我们的标准,在那一天,我希望你和我再进行一次同样的对话。我会告诉你今天的对话,告诉你你的政策和你的想象,是如何字字句句地让美国拱手相让了全球第二大市场,我们不应该拱手相让。我们为什么要主动放弃?现在没有人主张非此即彼——没有人主张随时随地无限制地向中国卖任何东西。我们应该永远在美国拥有最好的技术,永远在美国拥有最多的技术,而且要是第一个。但我们也应该尝试在全球竞争并获胜,这两件事可以同时发生,需要一些细致、一些成熟,而不是走极端。世界不是非黑即白的。

为什么 Nvidia 不开发多种不同的芯片架构?

主持人 Dwarkesh:我们之前讨论了台积电 N3 的产能瓶颈,如果你已经占了 N3 的多数,而且某个时点你会成为 N2 的多数——你有没有可能利用旧节点 N7 的富余产能,用今天所有关于数值类型等方面的认知,重新做一个 Hopper 或 Ampere 级别的产品?这种可能在 2030 年之前发生吗?

Jensen Huang:

没有这个必要。原因是每一代架构不只是关于晶体管的缩小,还有大量的工程创新和封装设计、芯片堆叠、数值类型,以及整体系统架构。要退回去用另一个节点做这种级别的研发,成本之高没有人能负担,至少不是"退回去"的方向——我们能负担的是继续向前冲。除非有一天,如果世界宣布永远不会再有更多产能。那一天,我会毫不犹豫地回去用 7nm 吗?当然,想都不用想。

主持人 Dwarkesh:我和一些人聊过,他们的问题是:为什么英伟达不同时推进多个完全不同架构的芯片项目?比如 Cerebras 那种晶圆级架构,Dojo 那种超大封装,或者一个没有 CUDA 的方向。你有资源和工程人才可以并行推进这些,为什么要把鸡蛋放在一个篮子里?AI 可能走向我们未知的方向,架构可能走向我们未知的方向。

Jensen Huang:

我们可以这样做,只是我们没有更好的想法。我们完全可以做所有这些,只是它们都不是更好的。我们在模拟器里全都跑过了,结果是更差,所以我们不会那样做。我们正在做我们想做的那些项目,如果工作负载发生了显著变化——我说的不是算法变化,而是真正的工作负载形态的变化,这取决于市场的结构——我们可能会决定增加其他加速器。

在几年前,token 要么是免费的,要么几乎是零成本的。但现在你可以为不同的客户提供不同定价的 token。有一些客户愿意为它付出更高的价格——比如我们的软件工程师,如果我能给他们更快速响应的 token,让他们比今天更高效,我愿意为此付钱。但这个市场只是最近才出现的。所以我现在有能力对同一个模型,基于响应时间,做出不同的细分市场。这就是我们决定扩展帕累托边界、创造更快响应时间的推理细分市场的原因,即使吞吐量更低。以前,高吞吐量总是更好。我们认为,可能存在一个世界,有非常高单价的 token,即使工厂吞吐量更低,高单价也能弥补这个差距。这就是我们这样做的原因。但从架构角度来看,如果我有更多钱,我会把更多资源押在英伟达的架构上。我认为极致高价 token 和推理市场的细分化,是非常有趣的方向。

主持人 Dwarkesh:最后一个问题。假设深度学习革命没有发生,英伟达会在做什么?

Jensen Huang:

加速计算,和我们一直做的一样。我们公司的核心前提是,摩尔定律对很多计算任务来说已经不够用了,通用计算固然好用,但对很多计算来说并不理想。所以我们把 GPU 和 CUDA 的架构与 CPU 结合,能够加速工作负载——把代码的不同 kernel 或算法卸载到我们的 GPU 上,结果是把应用速度提升 100 倍、200 倍。这能用在哪里?工程、科学和物理、数据处理、计算机图形、图像生成,各种各样的东西。即使 AI 今天根本不存在,英伟达也会非常、非常庞大。原因是相当根本性的:通用计算继续扩展的能力基本上已经走到了尽头,而出路就是领域专属加速。

我们最初切入的领域是计算机图形,但还有很多其他领域——粒子物理、流体动力学、结构化数据处理,以及各种各样能从 CUDA 获益的算法。我们的使命一直是把加速计算带给全世界,推动通用计算无法完成的应用类型,扩展到那些能突破某些科学领域瓶颈的能力级别。一些早期的应用就是分子动力学、地震处理用于能源勘探、图像处理,这些都是通用计算效率太低无法处理的领域。

如果没有 AI,我会很难过,但因为我们在计算上取得的进步,我们让深度学习走向了民主化,让任何研究员、任何科学家、任何地方、任何学生都能用一台 PC 或一张 GeForce 显卡做出令人惊叹的科学。这个根本承诺从未改变,一点都没有。如果你看 GTC,有很大一部分开头都不是 AI,那部分——计算光刻,量子化学工作,数据处理工作——全都和 AI 无关,而且依然非常重要。

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

|
|
APP下载
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

复制链接

|
|
APP下载
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

复制链接

深潮TechFlow的精选文章

5小时前
Bybit 产品负责人 Jerry Li:加密世界正分化为具备机构级标准的平台和偏投机性生态系统的两大阵营
7小时前
Cloudflare 一周密集发弹:统一推理层接入 70+模型,邮件服务让 AI agent 收发邮件
7小时前
Netflix 创始人,去了他最害怕的地方
查看更多

目录

|
|
APP下载
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

复制链接

相关文章

avatar
avatarOdaily星球日报
1小时前
USDD 2026年第一季度业绩全面提速:收入与利润显著增长,总金库余额升至1391万美元
avatar
avatar白话区块链
1小时前
真理的终点:透过 10 个 Polymarket 市场读懂市场情绪
avatar
avatar律动BlockBeats
3小时前
Arthur Hayes新文 :现在是「无交易」时间
avatar
avatar律动BlockBeats
3小时前
Claude Opus 4.7实测:配得上是最强模型吗?
avatar
avatar链捕手
4小时前
当主动做市商们开始主动
APP下载
Windows
Mac

X

Telegram

Facebook

Reddit

复制链接