英伟达史诗级暴涨后再放大招!推E级AI超算,黄仁勋狂捧生成式AI
芯东西5月29日消息,继上周远超预期的财报业绩预测引得股价和市值史诗级暴涨后,今日,英伟达(NVIDIA)创始人兼CEO黄仁勋穿着标志性的皮衣,意气风发地出现在台北电脑展COMPUTEX 2023上,在主题演讲期间先是现场给自家显卡带货,然后一连公布涉及加速计算和人工智能(AI)的多项进展。
面向生成式AI历史性浪潮,英伟达的一系列发布包括:推出大内存生成式AI超级计算机DGX GH200,可加速生成式AI设计的Grace Hopper超级芯片GH200已全面投产,推出全新加速以太网平台Spectrum-X,为游戏提供定制化AI模型代工服务,与全球最大的营销服务机构WPP合作打造生成式AI内容引擎,多家世界顶级电子制造商采用英伟达生成式AI工具与Omniverse平台构建先进的数字工厂。
英伟达还发布了MGX服务器规范,为系统制造商提供快速高效构建100多种服务器配置的模块化参考架构。
黄仁勋说,有超过1600家生成式AI公司采用了英伟达技术。
目前,英伟达最新市值为9632亿美元,离“万亿市值俱乐部会员”只差临门一脚。一旦突破万亿大关,英伟达将成为美股市值第五大公司、第七家市值越过1万亿美元的美国上市公司,以及第一家由华人创立的万亿美元市值公司。
01
生成式AI超算堪比“巨型GPU”:
E级算力,谷歌云、Meta、微软首批试用
首先来看下英伟达今日推出的采用英伟达最新GPU和CPU的系统巅峰之作——新型大内存AI超级计算机DGX GH200。
这台超算预计今年年底问世,旨在为生成式AI语言应用、推荐系统、数据分析工作负载开发大型下一代模型。黄仁勋认为,生成式AI、大型语言模型和推荐系统是现代经济的数字引擎。
据他介绍,DGX GH200 AI超级计算机集成了英伟达最先进的加速计算和网络技术。
DGX GH200是首款将Grace Hopper超级芯片与英伟达NVLink Switch系统搭配的超级计算机,通过采用新互连方式,将256个Grace Hopper超级芯片连接在一起,使它们能像单个巨型GPU一样协同运行,从而提供了1EFLOPS的性能和144TB的共享内存,比2020年推出的上一代DGX A100 320GB系统的内存多出近500倍。
谷歌云、Meta、微软等是首批获得DGX GH200访问权限、用于生成式AI工作负载的公司。英伟达也打算将DGX GH200设计蓝图提供给云服务商及其他超大规模计算厂商,以便他们可以进一步为其基础设施定制DGX GH200。
此外,英伟达正在打造自己的基于DGX GH200的大型AI超级计算机NVIDIA Helios,以支持其研究和开发团队的工作。它采用4个DGX GH200系统,每个都将与英伟达Quantum-2 InfiniBand网络连接,带宽高达400Gb/s,以提高训练大型AI模型的数据吞吐量。Helios将包括1024颗Grace Hopper超级芯片,将于今年年底上线。
DGX GH200超级计算机包含英伟达软件,可为AI和数据分析工作负载提供全套解决方案。英伟达Base Command软件提供AI工作流管理、企业级集群管理、加速计算、存储和网络基础设施的库,以及为运行AI工作负载而优化的系统软件。英伟达AI平台的软件层AI Enterprise提供了100多个框架、预训练模型和开发工具,以简化AI生产的开发和部署。
02
生成式AI的引擎:GH200
Grace Hopper超级芯片全面投产
英伟达宣布,GH200 Grace Hopper超级芯片已全面投产,将为运行复杂的AI和高性能计算工作负载提供动力。
基于GH200的系统加入了全球系统制造商基于英伟达最新Grace、Hopper、Ada Lovelace架构的400多个系统配置。
GH200 Grace Hopper超级芯片采用NVIDIA NVLink-C2C互连技术,将基于Arm的英伟达Grace CPU和Hopper GPU架构组合在同一封装中,提供了高达900GB/s的总带宽——比传统加速系统中的标准PCIe Gen5通道带宽高7倍,互连功耗降低到原来的1/5,能够满足苛刻的生成式AI和高性能计算(HPC)应用。
位于欧美的几家全球超大规模计算企业和超算中心客户将可使用GH200驱动的系统。采用GH200的系统预计将于今年晚些时候上市。
03
推出新型加速以太网平台
正打造数亿美元生成式AI超算
黄仁勋还宣布推出NVIDIA Spectrum-X,这是一个旨在提高基于以太网的AI云的性能和效率的网络平台。
它基于网络创新,将英伟达Spectrum-4以太网交换机与英伟达BlueField-3 DPU紧密耦合,实现了相比传统以太网结构1.7倍的整体AI性能和能效提升,并通过性能隔离增强了多租户功能,在多租户环境中保持一致、可预测的性能。
Spectrum-X具有高度通用性,可用于各种AI应用。它使用完全基于标准的以太网,并可与基于以太网的堆栈互操作。该网络平台由英伟达加速软件和软件开发工具包(SDK)进行增强,支持开发者构建软件定义的云原生AI应用程序。端到端功能的交付减少了大规模基于Transformer的生成式AI模型的运行时间。
该平台支持256个200Gb/s端口,通过单个交换机连接,或在两层leaf-spine拓扑中提供16000个端口,以支持AI云的增长和扩展,同时保持高水平的性能并最大限度地减少网络延迟。
全球领先的云计算提供商正在采用Spectrum-X平台扩展生成式AI服务。Spectrum-X、Spectrum-4交换机、BlueField-3 DPU等现已在戴尔、联想、超微等系统制造商处提供。
作为Spectrum-X参考设计的蓝图和测试平台,英伟达正在其以色列数据中心构建一台超大规模生成式AI超级计算机Israel-1。
这台AI超算价值数亿美元,将采用戴尔PowerEdge XE9680服务器、英伟达HGX H100超级计算平台、内置BlueField-3 DPU和Spectrum-4交换机的Spectrum-X平台。
04
发布MGX服务器规范
提供模块化参考架构
为了满足各种规模的数据中心的需求,黄仁勋发布了NVIDIA MGX服务器规范,为系统制造商提供了模块化参考架构。系统制造商可使用它快速且经济高效地构建100多种服务器配置,以适应广泛的AI、HPC及NVIDIA Omniverse应用。
MGX支持英伟达全系列GPU、CPU、DPU和网络适配器,以及各种x86及Arm处理器。其模块化设计使系统制造商能够更有效地满足每个客户的独特预算、电力输送、热设计和机械要求。
永擎(ASRock Rack)、华硕(ASUS)、技嘉(GIGABYTE)、和硕(Pegatron)、QCT、超微(Supermicro)等将采用MGX构建下一代加速计算机,可将开发成本削减多达3/4,并将开发时间缩短2/3至仅需6个月。
有了MGX,制造商可以从为其服务器机箱加速计算优化的基本系统架构开始,然后选择GPU、DPU和CPU。AI训练和5G等多项任务可以在一台机器上处理,升级到下一代硬件也很方便。MGX还能轻松集成到云和企业数据中心中。
不同于英伟达HGX,MGX提供了与英伟达产品灵活的多代兼容性,以确保系统构建者可以重用现有设计并轻松采用下一代产品。同样MGX也提供英伟达完整软件堆栈的支持。
QCT和超微将率先进入市场,MGX的设计将于8月面世。超微今日公布的ARS-221GL-NR系统将采用Grace CPU,而QCT的S74G-2U系统将采用Grace Hopper。
黄仁勋还宣布,英伟达与日本电信巨头软银合作,在日本建立一个分布式数据中心网络。它将在一个共同的云平台上提供5G服务和生成式AI应用。
数据中心将在模块化MGX系统中使用Grace Hopper、BlueField-3 DPU以及Spectrum以太网交换机,以提供5G协议所需的高精度定时。该平台将通过提高频谱效率来降低成本,同时降低能耗。
这些系统有助于探索自动驾驶、AI工厂、AR/VR、计算机视觉和数字孪生等领域的应用。未来的用途可能包括3D视频会议和全息通信。
05
ACE代工服务:用生成式AI
激活游戏角色生命,支持云端及PC低成本部署
生成式AI将改变玩家与游戏角色间的互动方式,并极大提高游戏的沉浸感。对此,黄仁勋宣布推出面向游戏的NVIDIA Avatar云引擎(ACE)。
这是一项定制AI模型代工服务,中间件、工具和游戏开发者可以使用它来构建和部署定制的语音、对话和动画AI模型。它能赋予非玩家角色(NPC)更智能且不断进化的对话技能,使其能够以栩栩如生的个性来回答玩家的问题。
基于英伟达Omniverse,ACE for Games为语音、对话和角色动画提供了优化的AI基础模型,包括:英伟达NeMo,使用专有数据,构建、定制和部署语言模型;英伟达Riva,用于自动语音识别和文本转语音,以实现实时语音对话;英伟达Omniverse Audio2Face,用于即时创建游戏角色的表情动画,以匹配任何语音轨道。
开发人员可以集成整个NVIDIA ACE for Games解决方案,也可以只使用他们需要的组件。
英伟达与专注于为虚拟游戏世界开发先进对话AI的英伟达Inception初创公司Convai合作,展示了如何快速用英伟达ACE for Games来构建游戏NPU。在一款名为Kairos的演示中,玩家与拉面店的供应商Jin互动。基于生成式AI,Jin虽是个NPC,却能拟真地回答自然语言问题,且回答内容与叙述的背景故事一致。它是在虚幻引擎5中使用最新光线追踪功能和英伟达DLSS渲染的。
支持英伟达ACE for Games的神经网络针对不同的功能进行了优化,有不同的大小、性能和质量折中。ACE for Games代工服务将帮助开发者为其游戏重新调整模型,然后通过英伟达DGX Cloud、GeForce RTX PC或本地部署进行实时推理。这些模型针对延迟进行了优化,有助于优化游戏的沉浸式交互体验。多家游戏开发商和初创公司已采用英伟达的生成式AI技术。
黄仁勋还介绍了英伟达和微软如何在生成式AI时代合作推动Windows PC的创新。
新的和增强的工具、框架和驱动程序使PC开发者更容易开发和部署AI。例如,用于优化和部署GPU加速AI模型和新图形驱动程序的微软Olive工具链将提高带有英伟达GPU的Windows PC上的DirectML性能。此次合作将增强和扩展搭载RTX GPU的1亿台PC的安装基础,可提升400多个AI加速的Windows应用程序和游戏的性能。
06
英伟达与WPP合作
为数字广告打造生成式AI内容引擎
生成式AI也正为价值7000亿美元的数字广告行业带来了新机遇。基于NVIDIA AI和Omniverse的突破性引擎将来自领先软件制造商的创意3D和AI工具连接在一起,以大规模革新品牌内容和体验。
全球最大的营销服务机构英国WPP集团正与英伟达合作,在Omniverse Cloud上构建首个生成式AI内容引擎,使创意团队能够更快、更高效、更大规模地制作高质量的商业内容,同时与客户的品牌保持完全一致。
新引擎连接了3D设计、制造和创意供应链工具的生态系统,包括来自Adobe和Getty Images的工具。在演讲中,黄仁勋展示了创意团队如何将他们的3D设计工具连接起来,在Omniverse中构建客户产品的数字孪生。生成式AI的内容经过负责任的数据来源训练,并与英伟达Picasso一起构建,将使其能快速生成虚拟集。然后WPP客户可使用完整的场景生成大量广告、视频和3D体验,供全球市场和用户在任何网络设备上体验。
WPP首席执行官马克·里德(Mark Read)说,生成式AI正以惊人的速度改变营销世界,WPP与英伟达合作所提供的独特竞争优势是当今市场上其他客户无法获得的,这项新技术将改变品牌为商业用途创建内容的方式,并巩固WPP在为世界顶级品牌创造性应用AI方面的行业领导者地位。
07
电子制造商采用生成式AI
实现数字化的智能工厂
全球电子制造商正在使用一种全新的综合参考工作流程推进其工业数字化工作,在广泛合作伙伴网络的支持下,该工作流程结合了英伟达用于生成式AI、3D协作、仿真和自主机器的技术,可帮助制造商规划、构建、运营和优化其工厂。
这些技术包括:英伟达Omniverse,它连接了顶级计算机辅助设计应用以及生成式AI的API和前沿框架;用于模拟和测试机器人的英伟达Isaac Sim应用程序;英伟达Metropolis视觉AI框架,用于自动光学检测。
“世界上最大的工业生产物理产品。先用数字化构建它们可节省大量成本。”他谈道,英伟达使电子制造商能轻松构建和运营虚拟工厂,将其制造和检验工作流程数字化,并大大提高质量和安全,减少代价高昂的最后一刻意外和延误。
黄仁勋现场展示了一个完全数字化的智能工厂的演示。
富士康工业互联网、宜鼎国际、和硕、广达和纬创正在使用新的参考工作流程,以优化他们的工作单元和装配线运营,同时降低生产成本,具体用例包括电路板质保检测点自动化、光学检测自动化、建设虚拟工厂、模拟协作机器人、构建及运营数字孪生等。
英伟达正在与几家领先的制造工具和服务提供商合作,构建一个全栈、单一的架构,每个架构都适用于每个工作流程级别。
在系统层面,英伟达IGX Orin提供了一个一体化的边缘AI平台,将工业级硬件与企业级软件和支持相结合。IGX满足边缘计算独特的耐用性和低功耗要求,同时提供开发和运行AI应用程序所需的高性能。其制造商合作伙伴们正在开发IGX驱动的系统,以服务于工业和医疗市场。
在平台层面,Omniverse连接了世界领先的3D、模拟和生成式AI提供商。团队可在他们最喜欢的应用程序之间构建互操作性,比如来自Adobe、Autodesk和Siemens的应用程序。
08
结语:生成式AI
正催生大量加速计算需求
生成式AI等变革性技术正渗透到消费者的生活方式中,并在医疗、金融、商业服务等许多行业催生新的商机,随着越来越多企业加入AI竞争,数据中心性能正迈向下一个阶段。训练AI大模型是一项资源和时间密集型任务,需要强大、绿色、可扩展的基础设施,以满足不断增长的加速计算能力、减少碳排放、控制成本等多方面的需求。
英伟达今日发布的一系列硬件基础设施及软件工具,目的性非常明确地围绕企业开发和部署生成式AI应用的核心痛点,通过先进互连技术和共享内存设计突破大规模AI的算力瓶颈,提供更快的计算性能、更高的能效以及加速开发流程的工具。这将帮助企业及研究机构节省大量时间和成本,将生成式AI用于解决科研挑战、优化工作流程和增强商业竞争力。