黄仁勋,第二个拐点已至,未来可期
黄仁勋表示第二个拐点已经来临,这个拐点可能代表着某种重要的变化或转折点,对于未来的发展具有重要影响,具体的含义和背景需要更多的上下文信息来解释,摘要字数在100-200字之间,简明扼要地概括了黄仁勋的观点。视觉中国
当地时间10月28日,英伟达在华盛顿特区举办GTC(GPU Technology Conference)大会,CEO黄仁勋发表主题演讲。
黄仁勋指出,英伟达在过去30年推动的“加速计算”模式,已经成为继冯·诺依曼体系之后60年来计算领域的全新范式。随着摩尔定律逼近物理极限,传统CPU性能增长受限,英伟达通过GPU与CUDA生态重新定义了计算架构。目前全球数亿台GPU设备通过CUDA实现代际兼容,支撑了人工智能、自动驾驶、医疗影像、量子模拟等关键行业的算力基础。
在新一轮产业合作中,英伟达宣布推出全新产品线NVIDIA ARC(Air Radio Compute),并与诺基亚建立战略伙伴关系,共同推进基于AI和加速计算的6G基础设施。黄仁勋强调,这标志着美国有望重新夺回电信技术创新的主导权。ARC平台整合了英伟达最新的Blackwell GPU、灰色CPU和ConnectX网络芯片,支持AI for RAN(无线接入网人工智能),可通过强化学习算法提升频谱效率和能耗表现,助力全球数百万个基站实现智能升级。
在量子计算领域,英伟达推出全新互联架构NVQLink 与计算平台 CUDAQ,实现量子处理单元(QPU)与GPU超级计算机的协同。通过AI驱动的量子纠错与混合模拟,英伟达计划与美国能源部(DOE)合作建设七台新一代AI超级计算机,以推动基础科学研究。包括伯克利、费米实验室、洛斯阿拉莫斯等八大国家实验室已加入该计划。
黄仁勋认为,AI不仅是聊天机器人或生成模型,而是“重新定义整个计算堆栈的力量”。他强调,AI的核心是数据驱动的学习型编程,需要巨大的能源、GPU算力和全新算法栈的支撑。他特别提到能源政策对AI产业发展的关键作用,并肯定美国能源体系的开放为算力革命提供了土壤。
最后,黄仁勋表示,核心两点是从通用计算向加速计算的两次平台转变。NVIDIA CUDA及其名为CUDA-X的一系列库使我们能够应对几乎所有行业,现在它正如虚拟循环所示地增长。第二个拐点现在已经到来,从传统手写软件到AI的转变。两个平台同时发生转变,这就是我们感受到如此惊人增长的原因。
演讲后,英伟达股价创纪录高点,市值达4.89万亿美元。分析师看好政府合同和多元化收入,包括电信、政府和GPU的销售。黄仁勋预计,2026年底GPU销售将达5000亿美元。
以下为演讲实录:
欢迎来到GTC,我不得不说,很难不对美国产生身后的感情和自豪感。
GTC是我们讨论工业、科学、计算、现在和未来的地方。所以,今天我有很多事情要和大家分享,在开始之前,我想感谢所有帮助这次盛会的合作伙伴。如果没有我们所有的生态系统合作伙伴,我们就无法完成我们的工作。人们说,这是人工智能的超级碗,因此每一届超级碗都有精彩的赛前表演。
你们对于我们的赛前表演以及我们的全明星运动员和全明星演员阵容有什么看法?看看这些人。不知怎么的,我的身材反而最健壮。你们觉得怎么样?
英伟达60年来首次发明了全新的计算模型,正如您在视频中看到的,新的计算模型很少出现,这需要大量的时间和条件。我们观察到我们发明了这种计算模型,因为我们想要解决通用计算机、普通计算机无法解决的问题。我们也观察到,总有一天晶体管的数量会继续增长,但晶体管的性能和功耗会放缓,摩尔定律不会超越物理定律的限制,而这一刻现在已经到来,迪纳尔缩放已经停止,这被称为迪纳尔缩放。迪纳尔缩放在近十年前就停止了,事实上,晶体管的性能及其相关功耗已经大幅放缓,但晶体管的数量仍在继续增长。我们很久以前就观察到了这一点,30年来,我们一直在推进这种我们称之为加速计算的计算形式。我们发明了 GPU。
我们发明了一种名为 CUDA 的编程模型。我们观察到,如果我们可以添加一个利用越来越多晶体管的处理器,应用并行计算将其添加到顺序处理 CPU 中,我们就可以大大扩展计算能力。而那一刻真的到来了。我们现在已经看到了这个转折点。加速计算的时代已经到来,然而,加速计算是一种本质上不同的编程模型。 你不能只是把手工编写的、按顺序执行的 CPU 软件放到 GPU 上并让其正常运行。 事实上,如果你那样做,它运行速度反而会更慢。因此,你必须重新发明新的算法。您必须创建新的库。事实上,你必须重写该应用程序,这就是为什么花费这么长时间的原因。
我们花了近30年的时间才到达这里。但我们是逐个领域进行的。这是我们公司的宝贝。大多数人都在谈论 GPU。GPU 很重要,但如果没有一个基于它的编程模型,并且没有专注于该编程模型,保持其代际兼容,我们现在从 CUDA 13 到CUDA 14,每台计算机中运行着数亿个 GPU,完美兼容。如果我们不这样做,那么开发人员就不会瞄准这个计算平台。如果我们不创建这些库,那么开发人员就不知道如何使用该算法并充分利用该架构一个又一个的申请。 我的意思是这些真的是我们公司的财富。 CU litho 计算光刻。我们花了近七年时间才研发出KU Litho 技术,现在台积电、三星、ASML都在使用它。这是一个令人难以置信的计算光刻库。
制作芯片的第一步用于 CAE 应用的稀疏求解器。 合作社数值优化几乎打破了每一项记录。 旅行商问题如何将数百万种产品与供应链中的数百万客户联系起来。Warp Python 是一款用于 CUDA 仿真的求解器。 QDF 是一种数据框架方法,基本上可以加速 SQL 数据框架和数据框架数据库。嗯,这个库是人工智能的起源,加上它上面的库,称为 megatron core,使我们能够模拟和训练极大的语言模型。这样的例子不胜枚举。呃Monai,真的非常重要,世界上排名第一的医学成像 AI 框架。 呃,顺便说一下,我们今天不会谈论太多有关医疗保健的话题,但一定要看看金伯利的主题演讲。她将详细谈谈我们在医疗保健领域所做的工作。这样的例子不胜枚举呃,基因组处理。
今天我们在这里要做一件非常重要的事情,量子计算的妙招。这只是我们公司350个不同图书馆中的一个代表,并且每个库都重新设计了加速计算所需的算法。每一个库都使所有生态系统合作伙伴能够利用加速计算。这些图书馆中的每一个都为我们开辟了新的市场让我们看看 CUDAX 可以做什么。
(视频内容)
这很神奇吗? 你所看到的一切都是模拟的。没有艺术,没有动画。这就是数学之美,这是深奥的计算机科学。深奥的数学。它真是美得令人难以置信。
从医疗保健和生命科学到制造业、机器人、自动驾驶汽车、计算机图形甚至视频游戏,各个行业都得到了涵盖。你看到的第一个镜头,是英伟达运行的第一个应用程序。这就是我们在 1993 年起步的地方。我们始终坚信我们要做的事情。
很难想象,当初你能够亲眼目睹第一个虚拟格斗场景栩栩如生地呈现在你眼前时,那家公司竟然相信我们今天会站在这里。这真是一段非常非常不可思议的旅程。我要感谢所有 NVIDIA 员工所做的一切。 真是太不可思议了。
今天我们要报道的行业很多。我将介绍人工智能、6G、量子、模型、企业计算、机器人和工厂。让我们开始吧。主我们有很多事情要报道,有很多重大公告要发布,还有很多新合作伙伴会让你大吃一惊。 电信是我们经济、工业和国家安全的支柱和命脉。然而,自从无线技术诞生以来,我们就定义了技术,定义了全球标准,我们将美国技术出口到世界各地,以便世界能够在美国技术和标准的基础上进行建设,这件事已经很久没有发生过了。目前世界各地的无线技术大多部署在国外技术之上。我们的基本通信结构建立在外国技术之上。这种现象必须停止,我们有机会做到这一点,特别是在这个根本性的平台转变期间。
众所周知,计算机技术是几乎所有行业的基础。它是科学中最重要的仪器。它是工业领域最重要的工具。我刚才说过,我们正在经历平台转变。这种平台转变应该是我们千载难逢的机会,让我们重新回到游戏中,开始利用美国技术进行创新。
今天,我们宣布我们将这样做。我们与诺基亚有着重要的合作关系。诺基亚是全球第二大电信设备制造商。这是一个价值三万亿美元的产业。基础设施投资达数千亿美元。全世界有数百万个基站。如果我们能够合作,我们就可以在这项基于加速计算和人工智能的令人难以置信的新技术的基础上进行开发。对美国来说,美国将成为下一次 6G 革命的中心。
所以今天我们宣布 Nvidia 推出了一条新的产品线。它叫做NVIDIA Arc。空中无线电网络计算机、空中 RAM 计算机:ARC。Arc 由三项基本新技术构建而成灰色 CPU、Blackwell GPU以及我们为此应用设计的 ConnectX Melanox Connectx网络。所有这些使得我们能够运行这个库,即我之前提到的 CUDAX库,称为 Aerial。 Ariel本质上是一个在CUDAX上运行的无线通信系统。
我们将首次创建一个软件定义的可编程计算机,它能够同时进行无线通信和 AI处理。 这完全是革命性的。我们称之为 Nvidia Arc。诺基亚将与我们合作,整合我们的技术,重写他们的技术栈。这是一家拥有7000项5G基础必要专利的公司,很难想象电信行业还有比他更伟大的领导者因此,我们将与诺基亚合作。他们将把 Nvidia Arc 作为他们未来的基站。 Nvidia Arc 也兼容 Airscale,即诺基亚目前的基站。这意味着我们将采用这项新技术,并能够使用 6G 和 AI升级全球数百万个基站。
现在,6G 和 AI确实非常重要因为我们将首次能够使用 AI技术(AI for RAN):来提高无线电通信的频谱效率,使用人工智能强化学习,根据周围环境交通、移动性和天气实时调整波束成形。所有这些都可以考虑在内,以便我们能够提高频谱效率。 频谱效率提升消耗了全球约 1.5%至 2%的电力。因此,提高频谱效率不仅可以提高,我们能够在不增加所需能量的情况下通过无线网络传输的数据量。我们还可以利用 AI for RAN 来实现RAM 上的 AI。这是一个全新的机会。
还记得互联网带来的通信便利吗?令人惊叹的是,AWS 等聪明的公司在互联网之上构建了一个云计算系统。我们现在将在无线电信网络上做同样的事情,这个新的云将是一个边缘工业机器人云。这就是 AIon RAN 的由来,首先是 AIfor RAN,旨在提高无线电频谱效率第二点是无线接入网(RAN)上的人工智能,本质上是用于无线通信的云计算。
云计算能够延伸到数据中心尚未覆盖的边缘地带,因为我们在世界各地都设有基站。这个公告确实令人兴奋。我认为首席执行官贾斯汀·霍达(Justin Hodar) 就在房间的某个地方。感谢您的合作。感谢您帮助美国将电信技术带回美国。这真是一次非常棒的合作。非常感谢。
让我们来谈谈量子计算。 1981年粒子物理学家量子物理学家理查德·费曼设想了一种新型计算机,可以以直接模拟自然,因为自然是量子的。他称之为量子计算机。40年后,该行业取得了根本性的突破。 40年后:就在去年,取得了一项根本性的突破。现在可以制作一个逻辑肘。逻辑肘尺。一个逻辑肘尺,连贯稳定,并且过去曾被纠正过错误。现在,一个逻辑上的肘尺有时可能由几十个、有时由几百个物理上的肘尺组成,它们共同协作。如你所知,立方体,这些粒子非常脆弱。它们很容易变得不稳定。任何观察、任何采样、任何环境条件都会导致它变得不相干。因此,它需要一个极其良好控制的环境。
现在还有很多不同的物理肘尺,它们可以协同工作,我们可以对这些所谓的辅助肘尺或综合征肘尺进行纠错,以便我们纠正它们并推断出逻辑肘尺状态。量子计算机有各种不同的类型。超导、光子、囚禁离子、稳定原子,各种不同的方法来创建量子计算机。好吧,我们现在意识到将量子计算机直接连接到GPU 超级计算机对我们来说至关重要,这样我们就可以进行错误校正,以便我们能够对量子计算机进行人工智能校准和控制以便我们能够共同进行模拟。正确的算法在 GPU 上运行,正确的算法在 QPU 上运行两个处理器、两台计算机并行工作。这就是量子计算的未来。
我们来看一下。构建量子计算机的方法有很多种它们都以量子比特(cubit)为核心构建模块。但无论采用何种方法,所有立方体,无论是超导立方体、囚禁离子、中性原子还是光子,都面临着同样的挑战。它们很脆弱,而且对噪音极其敏感。今天的 Qbits 仅在几百次操作中保持稳定。但解决有意义的问题需要数万亿次运算答案是量子纠错。测量会扰乱肘尺,从而破坏其中的信息。诀窍是在缠结中添加额外的肘尺以便测量它们可以为我们提供足够的信息来计算错误发生的位置,而不会损坏我们关心的肘尺。它非常出色,但需要超越目前最先进的传统计算能力。这就是我们构建 NVQLink 的原因,它是一种将量子处理器与 NVIDIA GPU 直接连接起来的新型互连架构。
量子纠错需要从量子信息处理系统(QIDS)中读取信息,计算错误发生的位置,并将数据发送回去以纠正错误。MVQLink 能够将数 TB 的数据移入和移出量子硬件。每秒可进行数千次量子纠错。其核心是 CUDAQ,这是我们用于量子 GPU 计算的开放平台。 使用MVQL链接和 CUDAQ,研究人员将能够做的不仅仅是纠错。他们还将能够协调量子设备和人工智能超级计算机来运行量子GPU应用程序:量子计算不会取代经典系统。它们将共同融合成一个加速量子超级计算平台。哇,这个阶段真长。
你知道,首席执行官们,我们不会只是坐在办公桌前打字。这是一项体力活。体力工作。所以,今天我们宣布 MVMVQL链接,它MVQ 链接。通过两件事成为可能。当然,这种互连可以进行量子计算机控制和校准、量子纠错,还可以连接两台计算机(QPU和我们的 GPU 超级计算机)以进行混合模拟。它也是完全可扩展的。
它不只是对今天的几肘尺数字进行纠错。它为未来进行纠错届时我们将把这些量子计算机的规模从今天的几百立方比特扩展到未来的几万立方比特,甚至几十万立方比特。所以我们现在有一个可以进行控制、协同模拟、量子纠错和未来扩展的架构。自CUDAQ发明以来,业界给予了极大的支持请记住,CUDA 是为 GPU CPU 加速计算而设计的。基本上就是同时使用这两个处理器用合适的工具做合适的工作。
现在CUDAQ 已经超越了 CUDA,因此我们可以支持 QPU,让 QPU 和 GPU 两个处理器一起工作,并且计算可以在短短几微秒内来回移动。与量子计算机合作所必需的延迟所以现在 CUDAQ 是一项了不起的突破,被众多不同的开发人员所采用。
我们今天宣布有 17 家不同的量子计算机行业公司支持MVQ 链接,我对这8个不同的 DOE 实验室感到非常兴奋。 伯克利、布鲁克海文芝加哥的费尔米实验室、林肯实验室、洛斯阿拉莫斯、奥克里奇、太平洋西北地区、圣地亚哥兰乔实验室,几乎每一个能源部实验室都与我们合作,与我们的量子计算机公司生态系统和这些量子控制器合作,以便我们可以将量子计算融入未来的科学。好吧,我还有一个补充消息要宣布。
今天,我们宣布能源部将与 NVIDIA 合作建造七台新的 AI超级计算机,以推动我们国家的科学发展,我必须特别提一下克里斯赖特部长。他为美国能源部注入了巨大的活力,一股澎湃的热情,确保美国在科学领域保持领先地位。再次,正如我所提到的,平台转变。一方面,我们要加速计算。这就是为什么未来的每台超级计算机都将是基于 GPU 的超级计算机。我们要发展人工智能,这样人工智能和基于原理的求解器、基于原理的模拟、基于原理的物理模拟就不会消失。但它可以被增强、改进、扩展,还可以使用代理模型和人工智能模型协同工作。
我们还知道,经典计算的主要求解器可以通过量子计算得到增强,从而更好地理解自然状态。我们还知道,在未来,我们将有如此多的信号,如此多的数据需要从世界采样遥感比以往任何时候都更加重要。除非这些实验室是机器人工厂、机器人实验室,否则它们不可能以我们需要的规模和速度进行实验。因此,所有这些不同的技术都同时进入科学领域赖特部长明白这一点,他希望能源部借此机会增强自身实力,确保美国始终处于科学前沿。我要为此感谢你们所有人。谢谢
让我们来谈谈人工智能。什么是人工智能?大多数人会说人工智能就是聊天机器人,这话没错。毫无疑问,ChatGPT 处于人们所认为的 AI 的前沿。然而,正如你现在看到的这些科学超级计算机不会运行聊天机器人。他们将进行基础科学研究。科学、人工智能、人工智能的世界远远不止聊天机器人那么简单。当然,聊天机器人极其重要,而通用人工智能(AGI)从根本上来说至关重要。深厚的计算机科学、令人难以置信的计算能力和重大突破对于 AGI来说仍然至关重要。但除此之外,人工智能还有更多用途。
事实上,人工智能就是..….我将用几种不同的方式来描述人工智能。第一种方法,或者说你对人工智能的第一种理解,是它彻底重塑了计算堆栈。我们过去开发软件的方式是手工编写代码运行在CPU上的手工编写软件。如今的人工智能如果你愿意的话,就是机器学习,一种训练数据密集型的编程,由运行在GPU上的人工智能进行训练和学习。
为了实现这一目标,整个计算堆栈都发生了改变。请注意,您在这里看不到Windows。这里看不到CPU。您会看到一个完全不同的、根本上完全不同的堆栈。从能源需求开始。而在这方面,我们的政府,特朗普总统,理应获得巨大的赞誉。他倡导能源,并认识到这个行业需要能源才能发展。它需要能量才能前进。我们需要能量才能赢得胜利。他认识到了这一点,并举全国之力支持能源增长,彻底改变了局面。如果这件事没有发生,我们可能会陷入糟糕的境地我要为此感谢特朗普总统。
能源之上是这些 GPU,这些 GPU连接到内置基础设施,我稍后会向您展示。除此之外,还有由巨型数据中心组成的基础设施,其规模很容易是这个房间的数倍,这些数据中心会产生大量的能量,然后通过这种被称为GPU 超级计算机的新机器将能量进行转换,从而生成数字。这些数字被称为令牌。如果你愿意的话,语言就是人工智能的计算单位和词汇。您几乎可以将任何东西标记化。当然,你可以将英文单词标记化。你可以对图像进行分词。这就是您能够识别图像或生成图像、标记视频、标记3D 结构的原因。
你可以将化学物质、蛋白质和基因进行标记化。你可以对单元格进行标记化几乎可以对任何具有结构的内容进行标记化,对任何具有信息内容的内容进行标记化。一旦你能将其标记化人工智能就可以学习该语言及其含义。一旦它学会了那种语言的含义:它就能翻译了。它可以像您与聊天 GPT 互动一样做出响应。它可以像GPT可以生成的聊天一样生成。
所以,您看到ChatGPT所做的所有基本事情,您所要做的就是想象一下,如果它是一种蛋白质,如果它是一种化学物质如果它是一个像工厂一样的 3D 结构。如果它是一个机器人,并且令牌是理解行为并将运动和动作标记化。这些概念本质上都是相同的,这也是人工智能取得如此非凡进步的原因。
在这些模型之上,还有应用转换器。变形金刚不是通用模型。这是一个非常有效的模型。但并不存在一种通用的模式。 问题在于人工智能具有普遍影响模型种类繁多,在过去的几年里,我们享受了多模态的发明并经历了创新突破。 有很多不同类型的模型。有 CNN 模型竞争神经网络模型、它们的状态空间模型、它们的图神经网络模型多模态模型,当然还有我刚才描述的所有不同的分词和标记方法。您可以拥有空间模型,并且其理解针对空间感知进行了优化。您可以拥有针对长序列识别长期细微信息而优化的模型。模型种类繁多。
在这些模型架构之上,在这些模型架构之上是应用程序,是过去的软件。这是对人工智能的一个深刻的理解,一个深刻的观察。过去的软件行业就是创造工具。Excel是一个工具。文字是一种工具。网络浏览器是一种工具。我之所以知道这些是工具,是因为你使用它们。工具行业就像螺丝刀和锤子一样,规模就那么大。就IT工具而言,它们可能是数据库工具。这些IT工具的总价值大约为一万亿美元。但人工智能并不是工具。人工智能就是工作。这就是深刻的区别。
人工智能实际上是能够实际使用工具的工人。让我真正兴奋的事情之一是lrvin 在 Perplexity 所做的工作。 Perplexity使用网络浏览器预订假期或购物,本质上是一个使用工具的人工智能。Cursor 是我们在 NVIDIA 使用的 AI系统。Nvidia 的每一位软件工程师都使用光标,这极大地提高了我们的工作效率。它使用的工具称为 VS 代码。所以 Cursor 是一个使用 VS Code 的 AI智能体系统。 好吧,所有这些不同的行业,这些不同的行业,无论是聊天机器人还是数字生物学,我们都有人工智能助理研究人员,或者机器人出租车里面的机器人。出租车是什么?当然,它是看不见的,但显然有一个人工智能司机。那位司机正在工作,而他用来完成这项工作的工具就是汽车。
所以,我们迄今为止所创造的一切,整个世界,我们迄今为止所创造的一切都是工具。供我们使用的工具。科技首次能够帮助我们工作,提高生产力。机遇数不胜数,这也是人工智能能够触及此前从未涉足的经济领域的原因。这几万亿美元隐藏在数百万亿美元的全球经济工具之下。现在人工智能将首次参与到这个价值千亿美元的经济体中,使其更具生产力,增长更快,规模更大。
我们面临严重的劳动力短缺。拥有增强劳动力的人工智能将帮助我们成长。从科技行业的角度来看,有趣的是,除了人工智能是一项针对经济新领域的新技术之外,人工智能本身也是一个新的产业。正如我之前解释的那样,当你将所有这些不同模式的信息标记化之后,就需要一个工厂来生产这些数字,这与过去的计算机行业和芯片行业不同。
如果你回顾过去的芯片产业,你会发现芯片产业在数万亿美元的IT产业中只占大约5%到10%,甚至可能不到5%。原因在于,使用 Excel不需要进行太多计算。使用浏览器并不需要太多的计算能力。使用 Word 并不需要太多的计算。我们进行计算。但在这个新世界中需要有一台能够随时理解上下文的计算机。它无法预先计算这一点,因为每次你使用计算机进行人工智能时每次你要求人工智能做某事时背景都是不同的。
所以,它必须处理所有这些信息。以环境为例,对于自动驾驶汽车来说,它必须处理汽车的环境。上下文处理。你要求人工智能执行什么指令?然后,它必须一步一步地分解问题,思考此事,制定计划并付诸实施。该步骤中的每个操作都需要生成大量tokens。这就是为什么我们需要一种新型系统的原因,我称之为AI工厂。这绝对是个AI工厂。
它与过去的数据中心截然不同。这是一座AI工厂,因为这座工厂只生产一种东西。不同于过去包揽一切的数据中心——为我们所有人存储文件,运行各种不同的应用程序,你可以像使用电脑一样使用该数据中心,运行各种应用程序,你某天可以用它来玩游戏,可以用它来浏览网页,可以用它来做账。因此,那是一台属于过去的计算机,一台通用计算机。
我在此所说的计算机是一座工厂,它基本上只运行一件事。它运行AI,其目的在于生成价值最大化的tokens。这意味着他们必须聪明。而你希望以惊人的速度生成这些tokens,因为当你向AI提出请求时,你希望它做出回应。请注意,在高峰时段,这些AI的响应速度正变得越来越慢,因为它要为很多人做很多工作。因此你希望它能以惊人的速度生成有价值的tokens,而你希望它能以经济高效的方式实现。我使用的每个词都符合AI工厂的特征,与汽车厂或任何工厂一样。这绝对是工厂,而且这些工厂以前从未存在过。而这些工厂里堆积着成山的芯片。
这便引出了今天。过去几年发生了什么?事实上,去年发生了什么?其实今年确实发生了一件相当深刻的事情。若你回顾年初,每个人对AI都有自己的看法。这种态度通常是:这会是个大事件,那将是未来。而几个月前,不知怎么的,它启动了涡轮增压。
原因有以下几点。第一点是,在过去的几年里,我们已经摸清了如何让AI变得聪明得多。与其说只是预训练,不如说预训练本质上表明:让我们把人类创造过的所有信息都拿出来,让我们把它交给AI来学习吧,本质上就是记忆和概括。这就像我们小时候上学一样,学习的第一阶段。预训练从来就不是终点,正如学前教育也从来不是教育的终点。
学前教育,本质上就是培养你掌握智力发展的基础技能,让你懂得如何学习其他一切知识。没有词汇量,不理解语言及其表达方式,如何思考,这是无法学到其他一切的。接下来是培训后阶段。培训之后,在培训之前,是传授你解决问题的技能,分解问题,思考它,如何解决数学问题,如何编写代码,如何逐步思考这些问题,运用第一性原理推理。而之后才是计算真正发挥作用的阶段。
众所周知,对我们许多人来说,我们去上学了,就我而言,那是几十年前的事了。但自那以后,我学到了更多,思考得也更深了。而原因在于我们始终在不断汲取新知识来充实自己。我们不断进行研究,也持续思考。思考才是智力的真正本质。
因此,我们现在拥有三项基础技术能力。我们拥有这三项技术:预训练,仍需投入巨大资源,海量的计算量。我们现在有后训练,它使用了更多的计算资源。而如今,思考给基础设施带来了难以置信的计算负荷,因为它在为我们每个人代劳思考。因此,AI进行思考所需的计算量,这种推论,实在相当非凡。
以前我常听人说推理很容易,英伟达应该进行培训。NVIDIA要搞的,你知道的,他们在这方面真的很厉害,所以他们要进行培训,这个推论很简单。但思考怎么可能容易?背诵记忆的内容很容易,背诵乘法表很容易。思考是艰难的,这正是这三把尺子的缘由。这三条新的标度律,即全部内容都在其中全速运转,给计算量带来了巨大压力。
现在又发生了另一件事。从这三条标度律中,我们获得了更智能的模型。而这些更智能的模型需要更强的计算能力。但当你获得更智能的模型时,你便获得了更高的智能水平,人们使用它。你的模型越聪明,使用的人越多。现在它更接地气了,它能够进行推理。它能够解决以前从未学过如何解决的问题,因为它能做研究,去了解它,回来拆解它,思考如何解决你的问题,如何回答你的问题,然后去解决它。思考的深度正使模型变得更智能。它越智能,使用的人就越多。它越智能,就需要进行越多的计算。
但事情是这样的。过去一年,AI行业迎来了转折点。这意味着AI模型如今已足够智能,他们正在创造价值,他们值得为此付费。NVIDIA为每份Cursor许可证付费,我们乐意如此。我们乐意为之,因为Cursor正助力身价数十万美元的软件工程师或AI研究员实现多重价值,效率高出许多倍。当然,我们非常乐意为您效劳。这些AI模型已经足够优秀,值得为此付费。Cursor、ElevenLabs、Synthesia、Abridge、OpenEvidence,名单还在继续。当然,OpenAI,当然,Claude。这些模型如今如此出色,人们为此付费。
而且因为人们正在为此付费并使用得更多,每次他们使用更多时,你需要更多计算能力。我们现在有两个指数函数。这两个指数,其中一个是三阶缩放定律中的指数计算需求。第二个指数函数是,模型越聪明,使用的人越多,使用的人越多,它需要的计算量就越大。
两个指数级增长的趋势正对全球计算资源施加压力,而就在不久前我才告诉过你们,摩尔定律已基本终结。那么问题来了,我们该怎么办?如果我们有这两项指数级增长的需求,如果我们找不到降低成本的方法,那么这个正反馈系统,这个本质上称为良性循环的循环反馈系统——对几乎所有行业都至关重要,对任何平台型行业都至关重要——就可能无法持续。
这对英伟达至关重要。我们现已进入CUDA的虚拟周期。应用程序越多,人们创建的应用程序越多,CUDA就越有价值。CUDA越有价值,购买的CUDA计算机就越多。购买的CUDA并行计算机越多,越来越多的开发者希望为其创建应用程序。经过三十年的发展,英伟达终于实现了这一虚拟循环。十五年后,我们终于在AI领域实现了这一目标。AI现已进入虚拟循环阶段。
因此你用得越多,因为AI很聪明,而我们为此付费,产生的利润就越多。产生的利润越多,投入的计算资源就越多。在电网中,投入到AI工厂的计算资源越多,计算能力越强,AI变得越来越聪明。越聪明,使用它的人越多,使用它的应用程序就越多,我们能解决的问题就越多。
这个虚拟循环正在运转。我们需要做的是大幅降低成本。因此,其一,用户体验得以提升,当你向AI发出指令时,它会更快地作出响应。其二,通过降低其成本来维持这个虚拟循环的运转,以便它能变得更智能,以便更多人会使用它,诸如此类。那个虚拟循环正在运转。
但当摩尔定律真的达到极限时,我们该如何突破呢?答案就是极致协同设计。你不能仅仅设计芯片,就指望在芯片上运行的东西会变得更快。在芯片设计中,你所能做的最好就是添加——我不知道,每隔几年晶体管数量就会增加50%。如果你再增加更多晶体管的话……你知道吗,我们可以拥有更多的晶体管,台积电是一家了不起的公司,我们只会继续增加更多晶体管。
然而,这些都是百分比,而非指数增长。我们需要复合指数增长来维持这个虚拟循环的运转。我们称之为极致协同设计。
英伟达是当今世界上唯一一家能够真正从一张白纸开始,构思全新基础架构的公司,包括计算机架构、新型芯片、新型系统、新型软件、新型架构、新型应用程序,同时兼顾。在座的许多人之所以在此,是因为你们都是那层结构的不同组成部分,在与NVIDIA合作时,是该堆栈的不同部分。我们从根本上重新构建了所有架构。
然后,由于AI是一个如此庞大的问题,我们扩大规模。我们打造了一台完整的计算机,这是首台能够扩展至整机架规模的计算机。这台计算机配备单张GPU,随后我们通过发明名为Spectrum-X的新型AI以太网技术实现横向扩展。
人人都说以太网就是以太网。但以太网根本算不上以太网。Spectrum-X以太网专为AI性能而设计,这正是它如此成功的原因。即便如此,那也不够大。我们将用AI超级计算机和GPU 填满整个房间。这仍然不够大,因为AI的应用数量和用户数量正在持续呈指数级增长。
我们将多个这样的数据中心相互连接起来,我们称之为Spectrum-XGS的规模——Giga Scale X-Spectrum。通过这样做,我们在如此巨大的层面上进行协同设计,达到如此极致的程度,其性能提升令人震惊,并非每代提升50%或25%,但远不止于此。
这是我们迄今为止打造的最极致的协同设计计算机,坦率地说,是现代制造的。自IBM System/360 以来,我认为还没有哪台计算机像这样被彻底重新设计过。这个系统的创建过程极其艰难。
我马上让你见识它的妙处。但本质上我们所做的,好吧,这有点像美国队长的盾牌。所以NVLink72,如果我们要制造一枚巨型芯片,一块巨型 GPU,它看起来会是这样。这就是我们必须进行的晶圆级加工的程度,太不可思议了。
所有这些芯片现在都被装入一个巨大的机架中。是我干的还是别人干的?放入那个巨大的架子…… 你知道吗,有时候我觉得自己并不孤单。仅凭这组巨型支架,便使所有芯片协同运作,浑然一体。这简直令人难以置信,我这就向你展示其中的好处。情况是这样的。所以…… 谢谢,珍妮。我——我喜欢这个。嗯。好的。女士们、先生们,贾妮娜·保罗。哇!明白了。在未来……
接下来,我就像雷神那样去干。就像你在家里,却够不到遥控器,你只要这样做,就会有人把它送给你。就是这样。嗯。如果你看一下列表。这种事从不会发生在我身上,我只是在做梦罢了。
看起来你实际能基准测试的GPU 列表大约有 90% 是 NVIDIA。好吧,所以不管怎样,我们基本上…… 但是。这是 NVLink 8。如今,这些模型如此庞大,我们的解决方式是将模型将这个庞然大物拆解成众多专家。这有点像一个团队。因此,这些专家擅长处理特定类型的问题。我们召集了一大批专家。
因此,这个价值数万亿美元的巨型AI 模型汇聚了众多不同领域的专家。我们将所有这些不同领域的专家都集中到一个 GPU 上。现在,这是 NVLink 72。我们可以把所有芯片都集成到一块巨型晶圆上,每位专家都能相互交流。因此,这位首席专家能够与所有在岗的专家进行交流,以及所有必要的上下文、提示和我们必须处理的大量数据,一堆tokens,我们必须发送给所有专家。专家们会…… 无论哪位专家被选中解答问题,都会随即尝试作出回应。
然后它就会开始逐层逐层地执行这个操作,有时八人,有时十六人,有时这些专家有时是64,有时是 256。但关键在于,专家的数量正越来越多。嗯,这里,NVLink 72,我们拥有 72 个 GPU。正因如此,我们才能将四位专家整合到单个 GPU 中。
你需要为每块GPU 做的最重要的事就是生成tokens,即您在HBM 内存中拥有的带宽数量。我们拥有一台 H 系列 GPU,为四位专家提供计算支持。与这里不同,因为每台计算机最多只能安装八个 GPU,我们必须将 32 位专家整合到单个 GPU 中。因此这块 GPU 需要为 32 位专家进行思考,相比之下,该系统中每块 GPU 只需处理四项任务。正因如此,速度差异才如此惊人。
这刚发布。这是由SemiAnalysis 完成的基准测试。他们干得非常、非常彻底。他们对所有可进行基准测试的 GPU 进行了基准测试。全球各地的供应链都在制造它,因此我们现在可以向所有这些地区交付这种新架构,从而使资本支出投资于这些设备,这些计算机能够提供最佳的总体拥有成本。
现在在这之下,有两件事正在发生。所以当你看这个时,实际上是相当非同寻常的。无论如何,这相当非同寻常。现在同时发生着两次平台转变。
记住,如我之前跟你提到的,加速计算用于数据处理、图像处理、计算机图形学。它确实执行各种计算。它运行SQL,运行 Spark,它运行…… 你知道,你让它,你告诉我们你需要运行什么,这可是件大事。它说我们现在可以更快地做出回应,但这才是更重大的事。
因此在下面层面,不管是否有AI,世界正从通用计算转向加速计算。不管是否有 AI。事实上,许多 CSP 早已提供在 AI 出现之前就存在的服务。记住,它们是在机器学习时代被发明的,像 XGBoost 这样的经典机器学习算法,像用于推荐系统的数据框,协同过滤,内容过滤。所有这些技术都诞生于通用计算的早期时代。
即便是那些算法,即便是那些架构,如今在加速计算的加持下也变得更加强大。因此,即使没有AI,全球云服务提供商也将投资于加速技术。NVIDIA 的 GPU 是唯一能同时实现上述所有功能并支持 AI 的 GPU。专用集成电路或许能够实现AI,但它无法完成其他任何任务。
NVIDIA完全能够做到这一切,这也解释了为什么完全采用 NVIDIA 架构是如此稳妥的选择。我们现已进入良性循环,抵达了转折点,这实在非同寻常。
我在这间会议室里有许多合作伙伴,而你们所有人都是我们供应链的重要组成部分。我知道你们大家工作多么努力。我想感谢你们所有人,你们工作多么努力。非常感谢。
现在我将向你展示原因。这就是我们公司业务的现状。正如我刚才提到的所有原因,我们看到Grace Blackwell正呈现出非凡的增长态势。它由两个指数函数驱动。我们现在已掌握情况。
我认为,在Blackwell以及Rubin早期增长态势上,2026年我们很可能是历史上首家能够看到5000亿美元业务规模的公司。正如你所知,2025 年尚未结束,2026 年也尚未开始。这就是账面上的业务量,迄今为止已达半万亿美元。
在这些产品中,我们已在前几个季度售出了六百万台Blackwell 设备。我猜生产的前四个季度,四分之三的产量。2025 年还有一个季度要走。然后我们有四个季度。因此未来五个季度,将有 5000 亿美元。这相当于Hopper增长率的五倍,这多少说明了些什么。
这就是Hopper的全部人生。这不包括中国和亚洲。所以这只是西方市场。Hopper,在其全部生命周期中,四百万块 GPU。Blackwell,每个 Blackwell 在一个大封装中包含两块 GPU。在 Rubin 的早期阶段有 2000 万块 Blackwell GPU。令人难以置信的增长。
因此,我要感谢我们所有的供应链合作伙伴。大家。我知道你们工作多么辛苦。我制作了一段视频来庆祝你的工作。我们来玩吧。
(视频内容)
极致版Blackwell GB200Nv 与Grace Blackwell NVLink 72 的协同设计,使我们实现了十倍代际性能提升。简直难以置信。现在,真正令人难以置信的部分是这个。这是我们制造的第一台AI超级计算机。这是2016 年,我将其交付给旧金山的一家初创公司,结果发现是 OpenAI。这就是那台电脑。
为了制造那台计算机,我们设计了一枚芯片。我们设计了一款新芯片。为了我们现在能够进行协同设计,看看我们得处理的这么多芯片。这就是需要的。你不可能拿一块芯片就让计算机速度提升十倍,那不可能发生。
使计算机速度提升十倍的方法在于我们能够持续实现性能的指数级增长。我们能够以指数级持续压低成本的方法,是极端协同设计以及同时在所有这些不同芯片上并行工作。我们现在把Rubin 接回家了。这是 Rubin。
这是我们的第三代NVLink 72 机架级计算机。第三代。GB200 是第一代。遍布全球的所有合作伙伴们,我知道你们付出了多么艰辛的努力。这真的是极其艰难。第二代,顺滑得多。而这一代,看这个,完全无线缆。完全无线缆。而这一切现在又回到了实验室。
这是下一代,Rubin。在我们发货GB300 的同时,我们正在准备让 Rubin 进入量产。你知道的,就在明年的这个时候,也许会稍微早一点。因此,每一年,我们都会提出最激进的协同设计系统,以便不断提高性能并持续降低tokens生成成本。
看看这个。这是一台令人难以置信的漂亮计算机。这是100 PetaFLOPS。我知道这没有任何意义。100 PetaFLOPS。但与我十年前交付给 OpenAI 的 DGX-1 相比,性能提升了 100 倍。就在这里。与那台超级计算机相比是 100 倍。一百台那种的,来算算看,一百台那种大概相当于 25 个这样的机架,都被这一样东西替代了。一个维拉·鲁宾。
所以,这是计算托盘。所以这是Vera Rubin 超级芯片。可以吗?这是计算托盘。就在这里,上方。安装起来非常容易。只需把这些东西掀开,塞进去。就连我也能做到。这是 Vera Rubin 计算托盘。
如果你决定要添加一个特殊处理器,我们添加了另一个处理器,称为上下文处理器,因为我们提供给AI 的上下文量越来越大。我们希望它在回答问题之前先读取大量 PDF,希望它能读取大量归档论文,观看大量视频,在回答我的问题之前先去学习所有这些内容。所有这些上下文处理都可以被添加进去。
因此您可以看到底部有八个ConnectX-9 新型 SuperNIC 网卡。你有八个。您拥有 BlueField-4,这款新型数据处理器,两个 Vera 处理器,以及四个 Rubin 软件包,或八个 Rubin GPU。这一切都集中在这个节点上。完全无线,100% 液冷。
至于这款新处理器,今天我就不多说了。我时间不够,但这完全是革命性的。而原因在于,你们的AI 需要越来越多的内存。你与它的互动更频繁了,你希望它能记住我们上次的对话。你为我所学的一切,等我下次回来时,请千万别忘记。
因此,所有这些记忆将共同构筑出名为KV 缓存的东西。而 KV 缓存,检索它时,你可能已经注意到,每次你进入你的会话,你们现在的 AI 刷新和检索所有历史对话的时间越来越长了。而且原因在于我们需要一款革命性的新处理器。这被称为 BlueField-4。
接下来是NVLink交换机。这正是使我们能够将所有计算机连接在一起的关键所在。而这个交换机的带宽现已达到全球互联网峰值流量的数倍。因此,该主干将同时向所有 GPU 传递并传输所有数据。
除此之外,这是Spectrum-X 开关。这款以太网交换机的设计使得所有处理器能够同时相互通信,而不会造成网络拥塞。堵塞网络,这很技术性。可以吗?所以这三者结合起来。然后这就是量子开关。这是 InfiniBand,这是以太网。我们不在乎你想用什么语言,无论您采用何种标准,我们都为您准备了卓越的横向扩展架构。
无论是InfiniBand、Quantum 还是 Spectrum 以太网,这款采用硅光子技术,并提供完全共封装的选项。基本上,激光会直接接触硅片,并将它与我们的芯片连接起来。可以吗?这就是 Spectrum-X 以太网。哦,这就是它的样子。这是一个机架。这是两吨。150万个部件和这根脊柱,这根脊柱在一秒钟内承载着整个互联网的流量。相同的速度,能在所有这些不同的处理器之间迁移。100%液冷。所有这一切,都是为了世界上最快的tokens生成速度。可以吗?所以那就是机架的样子。
现在,那是一个机架。一个千兆瓦级的数据中心会有,来算算,16个机架大约是姑且叫它 9,000,8,000 个这样的将是一个一千兆瓦的数据中心。所以那将是未来的 AI 工厂。
如你所见,NVIDIA起初是设计芯片,随后我们开始设计系统,并且我们设计 AI 超级计算机。现在我们正在设计完整的 AI 工厂。每次我们将更多问题整合进来进行解决时,我们都会想出更好的解决方案。我们现在构建完整的AI工厂。
这个AI工厂将会是…… 我们为 Vera Rubin 构建的东西。我们创造了一项技术,使我们所有的合作伙伴都能够以数字化方式集成到这个工厂中。让我向你展示。
(视频内容)
完全、完全是数字化的。在Vera Rubin 作为真实计算机出现之前很久很久,我们已经把它作为数字孪生计算机来使用。很久在这些 AI 工厂出现之前,我们就会使用它,我们会设计它,我们会规划它、优化它,并以数字孪生的方式来运行它。
因此,所有与我们合作的合作伙伴,我非常高兴你们所有支持我们的人。Gio在这里,G Ver... Vernova在这里,Schneider。我想,Olivier在这里,Olivier Blum在这里。西门子,令人难以置信的合作伙伴。好的。罗兰·布什,我想他在看。嗨,罗兰。总之,真的,非常非常棒的合作伙伴与我们一起工作。
起初,我们有CUDA,以及各种不同的软件合作伙伴生态系统。现在,我们有Omniverse DSX,并且正在构建AI工厂。同样地,我们也有这些与我们合作的令人惊叹的合作伙伴生态系统。
让我们来谈谈模型,特别是开源模型。在过去几年里,发生了几件事。一是开源模型因为具备推理能力而变得非常强大;它们之所以非常强大,是因为它们是多模态的,并且由于蒸馏技术,它们的效率非常高。因此,所有这些不同的功能已经使开源模型首次对开发人员极其有用。它们现在是初创公司的命脉。显然,这些初创公司的生存命脉在不同的行业中各不相同,正如我之前提到的,每个行业都有其自身的用例、其自身的数据、自己的已用数据,自己的飞轮。所有这些能力,那些领域专长需要能够嵌入到模型中,开源使这成为可能。研究人员需要开源,开发者需要开源,世界各地的公司,我们需要开源。开源模型真的非常非常重要。
美国也必须在开源方面处于领先地位。我们拥有极其出色的专有模型,我们拥有令人惊艳的专有模型,我们同样需要令人惊艳的开源模型。我们的国家依赖它,我们的初创公司依赖它,因此NVIDIA致力于去实现这一目标。我们现在是最大的,我们在开源贡献方面处于领先地位。我们在排行榜上有23个模型。我们拥有来自不同领域的这些语言模型,我将要讨论的物理AI模型、机器人模型到生物学模型。每一个这些模型都有庞大的团队,这也是我们为自己构建超级计算机以支持所有这些模型创建的原因之一。我们拥有第一的语音模型、第一的推理模型、第一的物理AI模型,下载量非常非常可观。我们致力于此,原因在于科学需要它,研究人员需要它,初创公司需要它,企业也需要它。
我很高兴AI初创公司以NVIDIA为基础构建。他们这样做有好几种原因。首先,当然我们的生态系统很丰富,我们的工具运行得非常好。我们所有的工具都能在我们所有的GPU上运行,我们的GPU无处不在。它实际上存在于每一个云中,它可以在本地部署,你可以自己构建。你可以自己搭建一个发烧友级别的游戏电脑,里面装多块GPU,然后你可以下载我们的软件栈,它就是能用。我们有大量开发者在不断丰富生态系统,使其越来越强大。所以我对我们合作的所有初创公司感到非常满意,我对此心存感激。
同样,许多这些初创公司现在也开始创造更多方式来利用我们的GPU,例如CoreWeave、Nscale、Nebius、Lambda、Crusoe等。这些公司正在建立这些新的GPU云来为初创公司服务,我非常感激这一点。这一切之所以成为可能,是因为NVIDIA无处不在。
我们将我们的库整合在一起,所有我刚才跟你提到的CUDA X库、我提到的所有开源AI模型、我提到的所有模型,例如,我们已经集成到AWS中。真的很喜欢和Matt共事。例如,我们已与Google Cloud集成。真的很喜欢和Thomas共事。每一个云都集成了NVIDIA GPUs和我们的计算、我们的库,以及我们的模型。很喜欢与微软Azure的Satya一起合作,很喜欢与Oracle的Clay一起合作。每一个这些云都集成了NVIDIA堆栈。因此,不论你去哪里,无论你使用哪个云端,它的工作效果令人难以置信。
我们还将NVIDIA的库集成到全球的SaaS中,以便这些SaaS最终都能成为具代理能力的SaaS。我喜欢Bill McDermott对ServiceNow的愿景。那里有人,对,就这样。我想那可能是Bill。嗨,Bill。那么ServiceNow是什么?全球85%的企业级工作负载、工作流。SAP,全球80%的商业交易。Christian Klein和我正在合作将NVIDIA库集成起来,将CUDA X、NeMo和NeMotron,以及我们所有的AI系统集成到SAP中。
与Synopsys的Sassine合作,加速全球的CAE,使CAD、EDA工具更快且可扩展,帮助他们创建AI代理。有朝一日,我很想雇佣一个AI代理ASIC设计师来与我们的ASIC设计师合作,从本质上来说,就是Synopsys的AI代理。我们正在与Anirudh一起合作,Anirudh,是的,我今天早些时候见过他,他参与了赛前节目。Cadence做着令人难以置信的工作,加速他们的技术栈,创建AI代理,使得Cadence的AI ASIC设计师和系统设计师能够与我们协同工作。
今天,我们宣布一个新的项目。AI将大幅提升生产力,AI将彻底改变每一个行业。但AI也会极大地增强网络安全挑战,那些恶意的AI。因此我们需要一个强大的防御者,我无法想象有比CrowdStrike更好的防御者。我们与CrowdStrike合作,将网络安全的速度提升到光速,以创建一个在云端拥有网络安全AI代理的系统,同时在本地或边缘也拥有表现极为出色的AI代理。这样一来,每当出现威胁时,你就能在瞬间检测到它。我们需要速度,我们需要一个快速的自主智能、超智能的AI。
我有第二个声明。这是世界上发展最快的企业公司,可能是当今世界上最重要的企业级堆栈,Palantir Ontology。这里有来自Palantir的人吗?我刚才还在和Alex聊天。这是Palantir Ontology,他们获取信息、获取数据、获取人为判断,并将其转化为商业洞察。我们与Palantir合作,加速Palantir的所有工作,以便我们能够进行数据处理,以更大规模和更高速度进行数据处理,更大规模、更多速度。无论是过去的结构化数据,当然也包括我们将拥有结构化数据、人为记录的数据、非结构化数据,并为我们的政府处理这些数据,用于国家安全,以及为全球的企业服务,以光速处理这些数据并从中发现洞见。这就是未来的样子。Palantir将与NVIDIA集成,以便我们能够以光速和极大规模进行处理。
让我们来谈谈物理AI。物理AI需要三台计算机。正如训练一个语言模型需要两台计算机一样,一台用于训练它、评估它,然后用于推理它。所以你看到的是大型的GB200。为了用于物理AI,你需要三台计算机。你需要这台计算机来训练它,这是GB,即Grace Blackwell NVLink-72。我们需要一台能够运行我之前用Omniverse DSX展示的所有模拟的计算机。它基本上是一个数字孪生,让机器人学习如何成为一个优秀的机器人,并使工厂实质上成为一个数字孪生。那台计算机是第二台计算机,即Omniverse计算机。这台计算机必须在生成式AI方面表现卓越,并且必须在计算机图形学方面表现出色,传感器模拟、光线追踪、信号处理。这台计算机被称为Omniverse计算机。一旦我们训练好模型,就在数字孪生中模拟该AI,而该数字孪生可以是一个工厂的数字孪生,以及大量机器人的数字孪生体。然后,你需要操作那台机器人,这就是机器人计算机。这个可以装进一辆自动驾驶汽车里,其中一半可以装进一台机器人里。可以吗?或者你实际上可以拥有,比如说,机器人在操作中非常灵活且非常快速,可能需要两台这样的计算机。这就是Thor,Jetson Thor机器人计算机。这三台计算机都运行CUDA,这使我们能够推进物理AI,能够理解物理世界、理解物理定律的AI,因果关系、持久性,物理AI。
我们有令人难以置信的合作伙伴与我们一起打造工厂的物理AI。我们自己也在使用它来打造我们在德克萨斯的工厂。现在,一旦我们建成了机器人工厂,我们里面有一堆机器人,这些机器人也需要物理AI,将物理AI应用于数字孪生内部,并在其中运行。让我们看看它。
(视频内容)
这就是制造业的未来,未来的工厂。我要感谢我们的合作伙伴富士康。在这里。但所有这些生态系统合作伙伴使我们能够创造未来的机器人工厂。这个工厂本质上是一个机器人,它正在协调机器人去制造出具有机器人性质的东西。要做到这一点所需的软件量非常庞大,除非你能够在数字孪生中去规划它、去设计它、在数字孪生中去运营它,否则让这个方案奏效的希望几乎不可能。
我也很高兴看到Caterpillar,我的朋友Joe Creed,以及他那家有着百年历史的公司也在将数字孪生技术融入他们的制造方式。这些工厂将配备未来的机器人系统,其中最先进的之一是Figure。Brett Adcock今天在这里。他三年半前创办了一家公司,他们现在市值接近400亿美元。我们正在共同训练这个AI,训练机器人、模拟机器人,当然还有装入Figure的机器人电脑。真的非常惊人。我有幸见证了这一点,这真的相当非凡。很可能类人机器人会出现,而且,我的朋友Elon也在做这方面的工作,这很可能会成为最大的消费类产品之一,新的消费电子市场,当然还有最大的一类工业设备市场之一。
Peggy Johnson和Agility的团队正在与我们合作开发用于仓库自动化的机器人。Johnson & Johnson的团队再次与我们合作,训练机器人,在数字孪生中进行仿真,并且还要操作机器人。这些Johnson & Johnson外科手术机器人甚至将进行完全非侵入性的手术,达到世界前所未有的精确度。
当然,史上最可爱的机器人,迪士尼的机器人。这是与我们息息相关的某件事。我们正在与Disney Research合作开发一个全新的框架和仿真平台,基于一种名为Newton的革命性技术。而那款Newton模拟器使得机器人在具备物理感知的环境中学习如何成为一名优秀的机器人。让我们看看它。
(视频内容)
现在,人形机器人仍在开发中,但与此同时,有一款机器人明显处于拐点上,它基本上就在这里,那是一个带轮子的机器人。这是一个无人驾驶出租车。无人驾驶出租车本质上就是一个AI司机。现在,我们今天正在做的事情之一,我们宣布推出NVIDIA DRIVE Hyperion。这是一件大事。我们创建了这个架构,以便世界上每一家汽车公司都能制造车辆,可以是商用的,也可以是乘用的,可以是专用于无人出租车,制造出具备无人出租车准备能力的车辆。配备环视摄像头、雷达和激光雷达的传感套件使我们能够实现最高级别的全方位感知套件与冗余,这是实现最高安全级别所必需的。Hyperion DRIVE,DRIVE Hyperion现在已被设计进Lucid、梅赛德斯-奔驰、我的朋友Ola Källenius,Stellantis的团队,还有许多其他车型即将到来。
一旦你有了一个基本的标准平台,那么自动驾驶系统的开发者们,他们中有很多非常有才华的团队,例如 Wayve、 Waabi、 Aurora、 Momenta、 Nuro、 WeRide等,有这么多公司可以把他们的AV系统移植到标准底盘上运行。基本上,标准底盘现在已经变成了一个移动的计算平台。并且因为它是标准化的,且传感器套件非常全面,他们都可以将他们的AI部署到上面。我们来快速看一下。好的。
(视频内容)
那就是美丽的旧金山,正如你所见,自动驾驶出租车的拐点即将到来。未来,每年将有万亿英里被驾驶,每年制造1亿辆汽车,全球大约有5000万辆出租车将会被大量无人驾驶出租车所增强。所以这将是一个非常庞大的市场。为了将其连接并在全球部署,今天我们宣布与Uber建立合作伙伴关系。Uber的Dara,Dara要走了。我们正在合作,将这些NVIDIA DRIVE Hyperion汽车连接成一个全球网络。而在未来,你将能够召唤到这些汽车中的一辆,生态系统将非常丰富,我们会在全世界看到Hyperion或无人驾驶出租车出现。这将成为我们的一个新的计算平台,我预计它会非常成功。好的。
这就是我们今天所讨论的内容。我们讨论了很多很多事情。请记住,其核心是两点,是从通用计算向加速计算的两次平台转变。NVIDIA CUDA及其名为CUDA-X的一系列库使我们能够应对几乎所有行业,我们正处于拐点,现在它正如虚拟循环所示地增长。第二个拐点现在已经到来,从传统手写软件到AI的转变。两个平台同时发生转变,这就是我们感受到如此惊人增长的原因。
量子计算,我们已经提到过。我们谈到了开源模型。我们谈到了与CrowdStrike的企业应用,以及Palantir,加速他们的平台。我们谈到了机器人技术,一个新的可能成为最大规模的消费电子和工业制造行业之一。当然,我们还谈到了6G,NVIDIA有了用于6G的新平台,我们称之为Aria。我们有一个用于机器人汽车的新平台,我们把它称为Hyperion。我们有新的平台,即便是面向工厂,也是两类工厂,我们把那个AI工厂称为DSX,然后把工厂与AI结合,我们称之为MEGA。
女士们、先生们,感谢你们今天的到来,并且感谢你们让我——谢谢——感谢你们让我们能够把GTC带到华盛顿特区。我们希望每年都举办一次。感谢你们!
本内容由作者授权发布,观点仅代表作者本人,不代表虎嗅立场。如对本稿件有异议或投诉,请联系 tougao@huxiu.com。
作者:访客本文地址:https://www.hujinzicha.net/post/5657.html发布于 2025-10-30 17:10:25
文章转载或复制请以超链接形式并注明出处北方经济网



还没有评论,来说两句吧...