新浪科技 股票

黄仁勋:龙虾就是新操作系统!英伟达7种芯片拼出算力怪兽

市场资讯 03.17 06:35

(来源:量子位)

英伟达GTC 2026很不寻常,黄仁勋迟到了15分钟。

今年有450家企业赞助、1000场技术分会、2000位演讲者、110台机器人,这样的规模已经不像一场技术会议,更像AI行业的年度朝圣

皮衣老黄站在舞台中央,接受了新称号“Token之王”

这次他没有直奔芯片发布,而是花了整整一个小时,从25年前的GeForce游戏显卡讲起,讲到20年前的CUDA,讲到10年前的RTX渲染技术,讲到云计算合作伙伴,再讲到今天的爆火OpenClaw和token经济。

AI从感知到生成到推理再到执行,每一步都需要生成更多token,消耗更多算力。

所有这一切铺垫,只为引出一个数字:

英伟达到2027年营收预计至少达到1万亿美元。

就在这个瞬间,与现场观众的掌声和欢呼声一同高涨的是英伟达股价。

Token工厂经济学:老黄教全球CEO看一张图

而老黄称这是全球CEO都要仔仔细细研究的一张图。

纵轴是Token吞吐量(每瓦产出多少Token),横轴是Token速率(每秒生成多少Token)。

吞吐量代表你的工厂产能,速率代表AI的“聪明程度”,模型越大、上下文越长、思考越深,速率就越低,但每个Token越值钱。

老黄把这张图变成了一套完整的商业模型。

免费层:高吞吐、低速率,用来获客。

中间层:$3-$6/百万Token,服务普通用户。

高级层:$45/百万Token,大模型深度推理。

顶级层:$150/百万Token,超长研究任务、关键路径实时响应。

去年Semi Analysis做了一次有史以来最大规模的AI推理基准测试。结果显示,Grace Blackwell NVLink 72的每瓦token吞吐量,比上一代Hopper H200高出50倍。

而黄仁勋自己说说的35倍。对此,Semi Analysis创始人公开表示:“黄仁勋在sand bagging(故意保留余地)”。

老黄说没错,我就说故意的,实际是50倍,

每瓦性能决定了一切。

因为每座数据中心的功率都是物理约束,一座1GW的AI工厂永远不会变成2GW。在固定功率下,谁的每瓦token产出更高,谁的token成本就更低。

这就是Vera Rubin存在的理由:

作为下一代计算平台,再次将每瓦token吞吐量提高2-10倍

Vera Rubin:十年千万倍加速

Hopper时代老黄还会举起一块芯片秀给观众看,但那个时代已经结束了。

Vera Rubin是英伟达有史以来最复杂的AI计算系统。

7种芯片,5种机架,垂直集成、端到端优化成一台巨型计算机:

在同一座1GW数据中心里,从Grace Blackwell到Vera Rubin + Groq,token生成速率从200万跳到7亿。‘

两年时间,350倍。

摩尔定律在同样的时间里能给多少?大约1.5倍。

350倍不是靠芯片上多塞几个晶体管实现的。当算力密度卷到这个程度,瓶颈早就转移到了芯片之外:散热和互联。

Vera Rubin的答案是两大变化,一个关于水,一个关于光

关于水,Vera Rubin采用100%液冷方案,连NVLink交换机都泡在液冷系统里。

互联不再靠外部线缆,而是在液冷模块内部做板级/背板式集成互联。

线缆全部消失了,过去安装一个机架要两天,现在两小时。

关于光,黄仁勋举起了世界首款量产的CPO(共封装光学)交换机

传统交换机里,电信号从芯片出来,经过PCB走线,到达光模块,在光模块里完成电-光转换,再通过光纤传出去。每一次转换都有延迟,每一段铜线都有损耗。

CPO把这条链路压缩到极致:光学器件直接封装到芯片上,电子在硅片表面就转换成光子。 没有光模块,没有铜线中转。英伟达和TSMC联合发明了一种叫CoUP的封装工艺,目前全球只有英伟达在量产。

要让72块GPU实现260TB/s的全对全带宽,如果还用传统铜缆,信号跑不了太远,机架尺寸就是物理极限。

CPO打破了这个限制,光子跑得更远、损耗更低、能效更高。

但铜缆和光学不是二选一

黄仁勋被问了太多次这个问题,干脆一次说清:

十年前的DGX-1,8块Pascal GPU,170 TFLOPS。

十年后的Vera Rubin NVLink 72,3.6 ExaFLOPS。

十年,算力增长四千万倍。

高吞吐的归Rubin,低延迟的归Groq

但还有一个问题没解决。

NVLink 72在高吞吐区间几乎无敌,72块GPU全对全互联,带宽拉满。

可一旦要求的不是400 token/秒,而是1000 token/秒的极速推理,NVLink 72的带宽就不够用了。

这就是Groq的故事。

英伟达在2025年底收购了推理芯片公司Groq,后者以“LPU”(Language Processing Unit)著称。

Groq的架构和英伟达GPU截然相反:它是一颗确定性数据流处理器,静态编译、编译器调度,没有动态调度,片上堆了500MB的巨量SRAM,只干一件事,推理。

此前业界一直猜测英伟达会如何整合这项资产。

答案来了:不是替代GPU,而是与GPU协同。

一颗Groq芯片4GB SRAM,一颗Rubin芯片288GB HBM。

前者极致快,后者极致大。单独用Groq,装不下万亿参数模型和海量KV cache;单独用Rubin,推不到极速token生成。

英伟达的解法是分离式推理,用Dynamo推理框架把流水线拆开。

Pre-fill和attention的计算量大,交给Vera Rubin;decode阶段的token生成对带宽敏感、对延迟敏感,卸载给Groq。

两颗极端不同的处理器,通过以太网紧密耦合,延迟减半。

结果在最高价值的推理层级上,再提升35倍吞吐量。同时解锁了此前根本不存在的新推理层级,千token/秒级别的极速生成

黄仁勋给出了配比建议:如果你的工作负载主要是高吞吐,100%上Vera Rubin就够了。如果你有大量编程、工程级token生成需求,拿出25%的数据中心功率给Groq

Groq 3芯片由三星代工,已经量产,预计Q3出货。

而Vera Rubin的首个机架,已经在微软Azure云上跑起来了。

OpenClaw:AI时代的Linux时刻

发布会的最后一部分,老黄画风一转,开始聊人类历史上最受欢迎的开源项目OpenClaw。

OpenClaw能做什么,老黄举例有人帮60岁的父亲自动化了整个精酿啤酒生意,蓝牙连接酿造设备,自动生成销售网站,顾客可以直接下单“龙虾拉格啤酒”。

但老黄更在意的是它的本质。他用操作系统的语言重新定义了OpenClaw:

资源管理:可以调用大语言模型、访问文件系统、使用工具。

调度系统:能做cron jobs、分步执行、生成子Agent。

I/O系统:多模态输入输出,你可以冲它挥手,它给你发邮件。

Windows→PC时代,Linux→服务器时代,HTML→互联网时代,Kubernetes→云时代,OpenClaw→Agent时代。

每一次平台转移,都催生了一批改变世界的公司。

企业IT的全部逻辑即将改写。

老黄直接断言:每家SaaS公司都将变成Agent-as-a-Service公司

But!

Agent在企业网络中能访问敏感信息、执行代码、对外通信,“你把这三件事连起来大声说出来,再想一想……”

所以英伟达与OpenClaw合作推出了企业版NeMo Claw,加上了策略引擎、网络护栏、隐私路由器。

老黄给出了他对未来企业的终极想象:

这已经是硅谷的新招聘筹码了:你的offer里带多少Token?

Two More Thing

在发布会上,对于外界备受关注的下一代计算架构Feynman(费曼),老黄也做了预告,并表示计算架构,每年都会有新东西。

Feynman将带来全新的GPU、LPU(LP 40)和CPU Rosa。

新一代的BlueField 5将连接下一代CPU与SuperNIC CX10,并配合新的Kyber技术实现铜线与光学双扩展——

这意味着,Feynman将首次同时支持铜线与光学封装的水平扩展。

老黄强调,无论是铜线、光学还是CPO,未来都需要更高的容量与带宽,这正是Feynman的核心突破。

此外,他还透露,NVIDIA 正与合作伙伴联合开发英伟达Space One,一台将部署在太空的数据中心计算机,开启“太空算力”的新篇章。

太空中没有对流,没有传导,只有辐射散热。

把GPU送上近地轨道,这大概是“AI无处不在”最字面意义上的诠释了。

直播回放:https://www.youtube.com/watch?v=jw_o0xr8MWU

加载中...