【天风电子】Nvidia Computex 2024主题演讲:揭开新工业革命序幕
【Nvidia 主题演讲要点】
生成式AI的影响:生成式AI正引领计算机产业的变革。AI和加速运算技术将重塑整个计算机行业;
加速运算的必要性:加速运算是解决计算通膨问题、提升计算效率的关键。所有高性能处理需求的应用程序和数据中心都需要加速运算;
GPU与CPU的结合:GPU与CPU的结合实现了并行处理,显著提升了计算速度,GPU的引入使得原本耗时的任务能在更短时间内完成;
NVIDIA的函数库:NVIDIA开发了350个函数库,支持AI、通信、基因测序等领域,这些库加速了科学研究和工业应用,打破了多项世界纪录;
实例与应用前景:台湾中央气象局使用NVIDIA模型预测台风登陆点;NVIDIA Earth-2利用AI和物理模拟技术预测全球气候变化。AI将能够生成token,包括影像、线图、表格、歌曲、演讲、视讯、影片等。AI的发展将超越传统的工具性质,成为为每个产业生成智慧的工厂。
NVIDIA的平台未来发展:Nvidia 首次展示了Blackwell的下一代产品Rubin平台并提出每年进行一代升级;
NVIDIA推出了Nims,一种推论微服务,简化了AI的使用和部署;提供了多种预先训练的模型和大型语言模型,适应不同行业需求;
人工智能未来前景-机器人和自动化:Nvidia以富士康为例展示了最新的工厂生态系统。
机器人将成为未来工厂和仓库的常见元素,包括人形机器人和自动化机械;
NVIDIA Omniverse平台用于机器人训练和模拟,帮助开发者创建先进的机器人系统;
技术进步与创新:随着技术的进步,AI将更符合物理定律,能够进行更复杂的模拟和学习;新型GPU,如Blackwell,将提供更强大的计算能力,支持AI的发展;
产业转型:IT产业将从单纯的信息处理和存储转变为智慧生成的制造业;未来计算机不仅是工具,而是能够生成新技能和工作的智慧实体。
【会议详细纪要】
今天非常高兴能够来到台湾。台湾是我们非常珍贵的伙伴的集中地,NVIDIA一切都从这里开始。我们的伙伴,我们的销售团队从台湾把这一切带到全世界。台湾与Nvidia的合作创造了全世界的AI基础架构。
今天我想要来跟大家谈几件事。第一,目前现在我们所作所为,他对于我们的产业,对于所有的产业有什么影响?生成式AI它带来的冲击是什么?我也会谈一谈我们未来的前景,以及这一切所带来的机会。还有就是接下来会有什么样子的发展,生成式AI还有它的影响和我们的未来蓝图,以及接下来会发生什么事情。我觉得现在真的是非常令人振奋。因为我们要重新启动我们的电脑产业,这个产业是由大家打造的,这个产业是由大家创造的。现在大家也要准备好开启下一个重大的旅程。但是在我们开始之前,NVIDIA是在计算机图形学,还有模拟以及人工智慧的轴心,这个就是公司的灵魂。我今天给大家看的一切,全部都是拟真,全部都是模拟,它背后都是数学,都是科学,都是计算机科学,是非常厉害的计算机架构。
这些都不是动画,而这些全部都是我们自产的,这些是单个的灵魂,我们把它全部都放入这个虚拟世界里,我们把它叫做Omniverse。在大家刚才看到的影片当中的基础就是两个非常重要的技术。第一个是加速运算,第二个就是人工智慧。他们这两个技术都是在Omniverse里头运行的。这两种技术,这两个非常重要的运算力量,会重新打造整个电脑产业。电脑产业已经60岁了,从很多面上来说,我们现在所享受的,其实是我出生1964年之后的那一年才开始的。从360的这个中央处理器,还有这个硬体和软件之间透过操作系统来做一个分割。还有像是多功能或者是IO的操作系统等等这些我们现在所使用的技术,它的这个架构的互容性,还有各种不同的相容性。其实我们今天所知道的这个运算在1964年的时候就已经出现了。当然,个人电脑的革命,让运算人人都可以取得,让每个人都有电脑可以使用。而2007年的iPhone,它当然让移动的运算,把电脑放到我们的口袋里头。至此之后,一切的东西都连接在一起了,大家都通过移动的云端,可以把所有的装置连接在一起。所以在过去这60年,我们看到了一些其实没有那么多,只有一些两三个重大的科技转型。大概两三个的科技转变,这个可以说是在电脑这个产业里头非常重大的转变,一切都改变了。
我们即将要见证下一个重大的改变。有两个重要的事情在改变。第一个就是处理器,也就是电脑产业运行它的核心引擎,这个CPU中央处理器,它的效能其实扩充的速度大幅降低。但是我们现在所要做的运算却还是成长非常的快。可以说是以指数的速度在成长。如果说处理的需求,我们所需要处理的资料不断的增加,大幅的增加,但是效能却没有办法增加。我们就会碰到所谓的运算通膨。现在我们就碰到运算通膨,也就是说现在一些资料中心所使用的电力非常的多。而这个运算的成本也增加。我们看到运算通膨-computation inflation, 这个是说,我们如果这样子继续下去就无以为继了。因为资料它会不断的增加,而CPU的效能却没有办法扩充的那么快,赶不上这个资料的增加。
过去20年我们都在开发加速运算,CUDA能够让CPU的任务卸载给一个专门的处理器。因为这个效能现在非常的卓越。所以我们现在看到在CPU它的扩充放慢的时候,我们就必须要去加速每一个东西。我预测所有的应用程序,只要它非常需要这个处理,那么它就必须要加速所有的资料中心,他们未来也都必须要加速才行。加速运算,其实这是很合理的,大家应该都觉得这个是很合理的。我们看一个应用程式,你看有100T,100T的意思就是说它有100个时间单位,可能是100秒,100个小时。在很多的情况之下,我们知道我们现在在做人工智慧的应用程式,它可能需要100天的时间。你要去开发一个人工智慧的程式,可能要100天。
1T这个程式,那可能是需要所谓的序列的处理。而这个CPU它当然就很重要,它包括了控制逻辑,或者是运作的作业系统。它就是一个一个指示下去,但是有很多的运算,很多的算法,举例来说,电脑动画它你必须是需要平行来运算。例如说电脑的动画、图形的处理,或者是物理的模拟,或者是合并的这个优化,还有这种各式各样的图形,或者是说深度学习的这个线性代数,其实有各式各样不同的运算法,它都可以有通过平行处理来加速。 所以我们就发明了一个架构来做这个平行运算。我们加了GPU跟CPU, GPU插在CPU这样子一个专门的一个处理器。它可能原本要花很多时间来处理某一种资料,但是现在我们可以处理的速度就更快了。因为这两个处理器它可以同时来做,他们是自主的,而且也是个别独立的。
所以我们可以加速,可能以前是要花100个单位来完成的,现在可能只需要一个单位。所以这个加速真的是非常的厉害,听起来好像是难以置信不可思议,听起来非常的不可思议。但是现在我要给大家展示很多的例子。其实这个好处非常的多。因为如果加速100倍,但是它所需要的能耗可能不多,增加所需要的电力可能只有三倍,而成本可能只增加了50%。其实我们在电脑产业常常看到这样子的一个进步。比如说GPU可能是500美元,添加500美元的GeForce的GPU将个人电脑的价值提升到1000美元,然后它的效能大幅增加,资料中心也是一样,可能花10亿美元打造的,我们投资了5亿美元的GPU现在它就可能变成了一个AI工厂,所以其实现在世界各地都看到这样子的一个发展状况,而我们省下来的钱也是非常多的,因为你的每一块钱它的效能增加了60倍。而这个电力只多花了三倍,速度快了100倍,成本才增加了1.5倍。所以你可以想象这里省了多少钱,这个省下来的东西,我们当然首先用美元来去计算。很多的公司,可能他花上亿美元在云端处理资料。如果说可以加速的话,那我们就可以预期,我们可以省下数亿美元。
为什么可以做得到呢?原因是很明显的,因为我们过去经历了太多的一般目的的这个通用运算,通膨非常的严重,也持续了很久。现在我们总算可以加速,我们现在可以把我们过去损失的全部都把它弥补回来,我们可以把过去在系统里头浪费的资源都可以把它拿来用。我们等于是说什么,省了很多的钱,省了很多的能源。这就是为什么大家可能听我说过,你买越多就省越多。
我刚才已经把这个算式给大家看了,它当然不是非常的精准,但是是正确的,这个就叫做CEO执行长的数学。执行长的数学就是说不准确,但是是正确的。你买越多省越多。好,那么加速运算它可以带给我们非常棒的结果。但是要加速运算其实没那么容易,为什么呢?为什么可以省这么多钱,但是大家却没有这么做呢?原因就是因为它是一个非常困难的技术,其实并没有所谓的一套软件,你可以来拿来跑, 然后突然之间这个应用程序,它就可以快100倍,没有这种东西,而且甚至这也完全不符合逻辑。如果可以这么做的话,他就改了CPU就可以做到了。事实上,我们必须要重新写这个程序,那这个才是最才是最难的地方。因为这个程式必须要重写才行,我们才能够重新的去想办法去表达。原来在CPU上面的这一个算法,然后我们才能够把它卸载。从CPU卸载,然后把它在CPU、GPU上面来并行运算。过去这20年来,我们很努力的想要改变这个问题。
过去CUDA这个是我们AI的一个函数库。它里头的这个神经网络,它当然还是必须要符合物理的特性。我们还有另外一个函数库叫做Aerial, 它是一个CUDA加速的5G的一个无线电,这样我们可以去改善这个通讯的网络,这个是软件定义的网络。所以我们要能够把这个加速,就让我们可以把所有的电信的变成是我们一个演算的平台。像是这个云端的演算平台一样,cuLITHO是一个计算光刻平台,可以让我们去做这个晶片制造里头最复杂的地方。台积电,他们就使用cuLITHO, 可以省很多的能源,也可以省很多的钱,但是台积电它主要的目的是要去加速他们的堆叠,让他们可以准备好做更先进的算法,做更深度的这个运算,做更窄的芯片。另外还有像是Pair of Bricks,它是一个基因定序的函式库。cuOPT其实也是一个非常棒的函式库,它可以做合并的优化。举例来说,在这个路线图上面要怎么样子规划呢?其实科学家他们认为说你可能需要一个量子电脑才有办法做。但是我们现在有一个加速运算的函数库,那我们就可以打破很多的世界纪录。
CUQUANTUM它是一个量子电脑的模拟器。你如果需要有这个量子电脑,你就需要一个模拟器才行。那怎么做呢?你要怎么样去设计这些量子电脑?你要去创造这些量子的算法。如果说你没有这个量子点了怎么办?你当然就使用全世界最快的电脑,我们把它叫做NVIDIA CUDA. 在NVIDIA CUDA上面我们有一个模拟器,它可以去模拟这个量子电脑。有非常多的研究人员,上千名的研究人员,他们在研究,他都整合到全世界最先进的量子电脑当中。cuDF它是一个非常厉害的函式库来做资料的处理。资料处理,它必须要用很多很多的云端上面的资源。但是这一切都必须要加速。
现在很多公司可能使用Spark或者是pandas,还有一个新的叫polar, 还有很多其他的处理函式库。所以这些例子只是告诉大家说,在过去每一个人必须要独立的来发开发,然后让整个生态体系可以去充分的利用加速运算的好处。如果我们没有CUDA的话,那么这些cuDNN它现在没有办法让全世界的科学家使用来做这个深度学习。现在我们所使用的
算法,不管是TensorFlow或pilot等等。过去它的分的太开了,就好像是你没有open GL来做电脑绘图一样,好像就是没有SQL来做资料处理一样。所以这些专门的函式库真的是我们公司的宝藏。我们有350个函式库。我们需要有这样的函数库,才有办法去开拓这么多新的市场。
等一下我会举一些具体的例子。上个礼拜google他们已经宣布了,他们把cuDF放在他们的云端系统,让他们Panda的运算速度更快。
Pandas可以说是现在大家最喜欢用的资料处理的函式库,至少有1万名的资料科学家正在使用,每一个月下载的次数超过1亿次。他其实就是资料科学家他们所使用的excel,现在你只要一个键,你就可以在colab里面来使用这个panda. 而且这是透过cuDF来进行加速处理。我们来看一下它有什么样的效果。真的是很棒的一a个展示,非常简短,可是一目了然。只要我们能够加快资料处理的速度,根本就不用花太多的时间,我们就可以看完整个示范。
CUDA现在让我们这个产业的发展来到了一个转类点,更重要的是它有一个良性的循环,这是很难得的。假如我们看计算平台历史架构,这么多年来的演进,我们知道微处理器发布到现在已经有60年的时间。可是在过去这60年当中,基本上没有太大的改变。我们基本上有了加速运算,等于是一种新的平台,可是要打造一个新的平台,非常的困难。就好像蛋生鸡,鸡生蛋的问题。假如没有开发人员使用你的平台,当然就不会有任何的用户。如果没有用户的话,没有大家所使用的这个电脑,开发人员就不会有兴趣。开发人员想要开发的是大家使用电脑的这些软件,可是我们必须要有足够多的应用程序,这样子才能够让更多人去使用,有更多人使用,才会让开发人员愿意去开发新的软件。我们已经累计了20年,我们开发的各种同领域的函式库。我们现在在世界各地有500万名的开发人员,我们可以服务各种不同的产业,包括金融业,包括健康护理、电脑产业、交通运输产业。所有的产业,所有主要的科学领域都在用我们的这个产品。我们的架构实际上可以让云端系统的开发人员来使用。譬如说在台湾有很多的系统厂商也都对我们的产品很有兴趣。当然,这也意味着我们现在有很好的机会,让我们能够不断的扩充我们的研发规模。如此一来就可以让应用程式开发速度更快。
因此,每一次假如我们能够开发更多的应用程式,我们的预算成本就会降低。这就是之前给大家看到的一个良性循环,速度提高了100倍,就可以让我们节省97%,98%的成本。所以假如这个速度是200倍甚至一千倍的话,那我们的成本,开发的成本自然会降得更低。因此,假如我们能够降低运算的成本,而且下降的幅度这么可观的话,那么市场也好,科学家也好,发明家也好,开发人员也好,他们自然就会去开发更多的算法,来使用更多的运算的能力。因此,有朝一日会发生什么样的状况呢?我们运算的边际成本现在这么低,换句话说我们就可以出现新的使用电脑的方式。现在我们已经看到这样的情况了。这么多年下来,我们让运算的边际成本下降了这么多。在过去十年当中,我们可以看到算法它使用的次数越来越多。因此我想现在大家都非常的清楚,我们要训练大型语言模型。我们可以把网络上面所有的资料都拿来使用。这个是我们连想都不用想的事情。最主要的原因就是因为我们的电脑它可以有这么好的运算的能力,所以它可以自己写软件,它可以开发自己的人工智慧系统。最主要的原因就是因为我们的电脑晶片越来越便宜,自然它的用处越来越多,CUDA已经有了这样的一个良性循环,使用人员非常的多,成本下降幅度非常的高,就会有更多的开发人员提出新的想法。这样子就可以驱动更多市场需求。已经打开了一个新的电脑时代。我要告诉大家,假如我们当初没有开发出CUDA,没有开发出生成式AI的一种新的使用模式的话,实际上很多事情都是不可能的。
我们现在可以打造地球的数位孪生,如此一来,我们就可以去预测我们的地球未来会有什么样的变化。我们可以避免天灾发生,我们可以更加了解气候变迁对于我们生活环境的影响,可以改变我们生活习惯。因此,地球的数位孪生,可以说是有史以来最大的一项发展计划,每年我们都有长足的进步。等一下我会给大家看到我们这周这么多年下来的一个发展的结果。请各位观赏。想象一个我们能够预测未来的世界,数位孪生反映真实情况的虚拟世界,让我们看见未来数位孪生是一种反映真实世界的虚拟模型,让我们能够从今天的行为来预测对未来世界的影响。
介绍一下NVIDIA earth-2, 一个利用AI物理模拟和电脑图形技术来预测全球气候的数位孪生。CorrDiff是NVIDIA的生成式AI模型,它在WRF数值模拟的基础上训练而成,能够以12倍更高的解析度生成喷气模式,从25公里提高到2公里。这代表了区域天气预测的一个巨大的飞跃。令人惊讶的是,CorrDiffAI比传统的物理模拟方法快1000倍,且能源效率高3000倍。
在台湾的中央气象局使用这些模型来更精确的预测台风登陆点。但我们并不止步于此,下一个前沿是超本地预测,能精确到数十米,并考虑到程式基础设施的影响。CorrDiff AI还在使用像是PALM生成的高解析度数据进行训练,一个极高解析度的物理模型,用于模拟大气和海洋边界层,当与天气模拟风场结合一起时,它可以模拟建筑物周围的气流。当即强风汇聚的情况,我们预计能够预测像“下冲”这样的现象。当强风汇聚到街道层,会有可能造成损坏并影响行人。NVIDIA earth-2是一个绝佳范例,它融合了人工智慧物理模拟和观测数据,可以帮助国家公司预见未来极端天气的影响。
在不久的将来,我们可以把随时提出我们的气象预报,不管是哪个地方,我们可以随时掌握当地的气候变化,而且它是连续性的预测。为什么呢?因为我们已经把这个AI都训练好了,而且他不需要消耗太多的电力,希望大家喜欢刚才我们的这个例子。
我的国语讲的标准吗?你们帮我评断一下吧。事实的真相是,这个是Jensen AI。那个不是我自己哦,我写了这个台词,可是Jensen AI,也就是我的数位孪生,是帮我做旁白的。所以我的国语不够好,是我的数位孪生帮我做的旁白,这真的是一个奇迹。
不过在2012年发生了一件很重要的事情。因为我们不断地在改良我们的CUDA,希望能够提升效能,降低成本。因此,AI的研究人员,他们在2012年发现CUDA其实是非常好用的,这个是NVIDIA第一次接触到人工智慧。这个是非常重要的一个日子。
其实,我们做了正确的选择,我们跟科学家合作,来研究深度学习系统,让我们的电脑系统有很大的突破。更重要的是,我们必须要了解,深度学习的基础是什么。他会产生怎么样的长期的影响,他具有什么样的长期的潜力。因此,我们知道,科技可以不断的扩充。因为有了更多的资料,更大的网络,有更好的运算能力,因此深度学习突然之间由不可能变为可能。它的架构进一步扩充,通过更多资料,更大的网络,有更好的运算能力,他的前途是不可限量的,所以我们要不断突破。
在2012年之后,我们有了Tensor Core,我们有NVlink。Tensor Core是我们的GPU。然后十年前,我们有NVlink,cuDNN,TensorRT,Nicole。我们也买了Mellanox,我们有推论伺服器。我们把所有这些东西,整合在我们崭新的电脑里面。过去大家没有办法想象,所以大家没有办法理解,那当然大家也都不想买。所以我们在GTC宣布,open AI是一家旧金山的小公司,他们看到了我们的原型产品,所以我们就把全世界第一台的超级电脑亲手在2016年交给open AI。
这是我们的第一台DGX超级电脑,所以从这样的一个超级电脑,我们不断的扩充它的规模,我们把它的规模越做越大。到了2017年,我们有了Transformer这个系统,所以我们可以用大量资料来做训练,我们可以整去分析长时间的资料,找到它的一些模式,我们这样子就可以进行自然语言的处理,这也是一个很大的突破。还不止是这样,我们又打造了更大的系统。在2022年11月,我们用几千个几万个我们NVIDIA的GPU,我们来做了很多的训练,所以短短五天的时间,有一百万人在使用Open AI他们所打造的人工智慧系统。为什么能够有这么好的成绩呢?因为使用起来非常的简便,而且效果非常的好。能够把电脑当成人一样,跟他们进行互动,换句话说,这个大电脑它能够知道我们想做什么。
所以呢我刚才讲到open AI,Chat GPT和人工智慧,这两者的差别在哪里?Chat GPT还没有跟大家见面之前,所谓的人工智慧,都是要如何理解自然语言、电脑视觉、语音识别。换句话说,是感知的能力,侦测的能力,这是我们第一次看到有深层次的人工智慧系统出现。它可以产生我们所谓的token,一次产生一个token,而这些token就变成是我们的字。当然,有些token他可能是影像,他可能是线图,可能是表格、歌曲、演讲、视讯、影片。token有可能是任何的事情,只要是有意义的都算是,包括蛋白质、化学分子的token,基因的token。
Earth-2,我们刚才地球的数位孪生,它可以让我们产生气候的token。我们也可以教AI模型,所谓的物理学,而且也可以帮我们产生物理学的一些研究。我们用的不是过去的方法,我们用的是深层次的人工智慧,让我们的解析度,气候预报的解析度不断的提高。所以,几乎所有的事情都可以把它转换成token,token是非常有价值的。譬如说,汽车方向盘的控制系统,可以有token,我们也可以让机械手,被它如何进行连接,透过我们产生的token,打造我们的控制系统。因此,现在我们进入的不是AI的时代,而是生成式AI的时代。
那它的重要性在哪里呢?原本我们说这是一部超级电脑,可是他现在不断地进化,它已经变成了资料中心。而且它生产的东西是什么?就是token。这个就是我们所谓人工智慧工厂。这样的一个人工智慧工厂,它制造的,它所产生的,是一种新的有价值的大宗商品。
在1980年代末期,Nikola Tesla他发明了AC发电机,可是我们现在发明的是AI的产生系统。AC发电机它产生的是电子,可是我们的AI产生器,它产生的是人工智慧。其实电子也好,AI也好,它都有很高的市场价值,因为每个产业都需要。这就是为什么我们说这是一个全新的工业革命。我们现在有1种新型态的工厂,他们产生的是新形态的大宗商品,每个产业都用得到,具有无比的价值。而他更好的是,他这种方法是可以复制的,是可以扩展的。因此,有没有注意到,现在我们每一天都有一些新的生成式的AI模型被打造出来,因为每个产业都需要。我们第一次看到it产业它的产值有三兆美元,三兆美元的这个产值。现在it产业它即将创造一个东西,它能够去服务这个超过一百兆美元的产业。换句话说,它不再只是工具了,不是为了储存资讯,或者是处理资料而已。IT产业会变成是一个工厂,可以为每一个产业来生成智慧,未来它就变成是一个制造业了,不是电脑的制造业,而是使用电脑来把它制造智慧。那真的是以前没有发生过的事情。真的是很了不起。
我们一开始是加速运算到AI到生成式AI,现在是新的产业革命。
而这个对于我们的产业有什么样子的影响呢?其实影响非常大。当然我们可以创造一个新的商品,一个新的产品,我刚才说是token。我们可以创造这样子的产品给其他产业,但是,其实这个对于我们自己的产业影响也很大。因为六十年来,我刚才有提到,不同的运算方式都在改变。从CPU通用目的的运算,到加速的GPU运算。那么以前电脑需要只是命令,现在,它可以去处理大型语言模型,AI模型。而这些过去的模型运算的模式,它是存取式的。举例来说,你要打电话,那可能你听到他有预录的内容,而且他根据推荐系统来推荐给你,根据你的习惯来推荐给你。但是未来呢?你的电脑它会生成很多东西,但是,它只会存取你所需要的东西。
为什么呢?因为生成式的资料,他要存取资讯的时候,所需要的能源比较少。他也会符合整个情境脉络,它会符合你的需求。所以,你如果要什么样子的档案,什么样子的资讯,你只需要问这个电脑就行。未来你的电脑就不再只是我们所使用的工具了,未来电脑它甚至能够生成新的技能,它会帮你做一些工作,所以未来这个产业它不再只是去设计软件,设计应用程式。当然在九零年代,这个是非常了不起。大家别忘记,当时微软他们有套装软件,可以说是改变了整个电脑的产业。因为如果没有这些套装软件的话,我们干嘛要电脑呢?我们电脑能拿来做什么呢?所以这些套装软件当然推动了整个产业。但是现在我们有新的工厂,新的电脑,现在也会有新的软件,我们就把它叫做Nims,NVIDIA的推论微服务。
这个Nims, 它是在这个工厂里头运行的,而这个Nims它是一个预先训练的模型,它是一个AI。这个AI本身是非常的复杂,但是去运行这个AI的计算堆栈,它非常非常的复杂。你去使用Chat GPT,它底下有非常非常多软件,你下一个指令、下一个提示,背后其实有非常多的软件正在跑,所以它不只是在一个参数上面跑,是数以万计数、以兆计的参数在跑,他需要做tensor的各式各样的不同的并行运算,所以它有各式各样的并行再运行。他在不同的GPU分配他的这个作业负载,他的速度也非常的快。因为如果我们今天要这个经营工厂的话,你的这个产量是多少,跟你的服务品质,跟你的营收,跟有多少人可以使用你的服务有非常正向的关系。那我们现在的这个资料中心,它的传输量非常非常的大,所以传输量的使用率就很重要了。以前也很重要,只是没那么重要。以前很重要,但是大家不会去测量它,现在每一个参数都必须要测量,使用时间、利用率、idle的时间等等。因为现在它就变成是一座工厂了,他一旦他变成工厂,他的一切的运行就会跟这些这家公司财务表现有很密切的关系,我们知道对于大部分的公司来说,这都是非常复杂的事情。
所以我们就去把这个AI装进了一个盒子里头,这些容器,这些container里头,有非常多很棒的软件。在这个容器里头有CUDA、DNN、tensor RT、Triton推理服务,它是在云端上的堆栈。它有通用的API,标准的API,所以基本上你就可以跟这个盒子来对话,你把这个推论维服务下载,你就可以跟他对话,所以只要你的电脑上有CUDA,基本上每个cloud上面都有,有数亿台电脑上面都有。大家把它下载之后,你就有AI,你可以跟他对话,就像你跟GPT对话一样。所有的软件,现在都整合在一起的,四百多个dependency都把它整合在一起,我们测试了这些nims,每一个都是预先训练的模式,他们都是可以安装的在各种云上面,不管是Pascal或者是Ampere,各种不同的版本,Hopper也可以,各式各样不同的版本,我甚至还会忘记有哪一些。所以nims真的是很棒的一个发明,我真的非常的喜欢。
我想大家也知道,我们现在可以创造各式各样的大型语言模型,还有预先训练的模型。我们有各式各样不同的版本,不管他是语言版本的,或者是视觉,或者是图片版本以为主的,或者是说针对医疗保健产业的,数位生物产业的,我们还有所谓的数位人。
甚至,我们可以请大家上AI.NVIDIA.COM去看一下,我们今天在hugging face发布了Llama 3 Nim,它是完全优化的,大家可以去试试看,甚至可以带着走,那是免费的。所以大家可以在云上面来运行,然后可以下载这个容器,放在自己的资料中心里头。你可以放在自己的资料中心,提供给你的客户使用。我们使用的方式,就是把这些微服务把它连到大型的应用程式,那么其中未来最重要的一个应用程式,就是所谓的客服专员。
但是有很多的应用城市我们可能想用其他的方式跟它互动,用一个比较像是人的方式来互动,我们把它叫做数位人,那其实 Nvidia 已经在这个数位人的技术上面研究了很久了。
在给大家看这个影片之前,要告诉大家这个数位人他有很大的潜力可以和大家互动,那这个互动就会更温暖,他们更有同理心。当然。我们也必须要跨越这个巨大的鸿沟,这个巨大的鸿沟就是现实感,所以这些数位人他要能够有温暖的感觉,有同理心,他必须要能够让我们跨越这个鸿沟才行。但是这个就是我们的愿景,给大家看这段影片。
真的是蛮厉害的,那么 ACE 它是在云端上运行,但是也可以在个人电脑上面运行。我们把 tensorcore GPU 放在我们所有的,放在RTX,所以我们可以已经有一段时间把 AI 的 GPU 把它出货了,为我们知道为了要能够创造一个新的运行运算的平台,我们先必须要把这个基础打好,那么之后就会有这个应用程序。你如果没有这个基础的平台,后面就没有应用程序,你把它打造好了。他们你没有打造的话,它当然不会有这些应用程序,所以我们所有的RTX GPU 它都有 Tensor Processing,现在我们有1亿个 GForce RTX AIPC,那未来大家的个人电脑就会是一个AI,它未来会提供大家各式各样的背景协助,那么个人电脑它当然也会去跑这个由 AI 加强的应用程序所有的图片的编辑了,照片的编辑了,你在写作的时候,各式各样的工具它都会能够因为 AI 而强化,而你的个人电脑它也可以有这个数位人类在里头,所以换句话说, AI 会用不同的方式体现在大家的这个个人电脑里头,但是未来个人电脑会是非常重要的 AI 平台。
好,那么未来呢?未来会怎么样子发展呢?我前面有提到有关于扩充我们资料中心的扩充,每一次我们要扩充的时候,我们就发现有一个新的改变,我们从 DGX 变成大型的 AI 超级电脑的时候,我们让 Transformer 可以训练,这个可以用来训练大量的资料集,那在一开始的时候这个资料它是由人类监督的,换句话说我们需要有人类给它进行这个贴标签,那但是问题是这个人是有限的, Transformer 就让我们得以进行非监督式的学习。
现在 Transformer 他看很多很多的海量资料,看了很多很多的影片,看很多很多的图片,他就可以从中去学习,他可以找到其中的一些相关的模式,那未来 AI 它必须要符合物理定律才行,现在大部分的 AI 都不懂这个物,不太符合物理的定律,但是未来如果我们的图片、影片 3D 的这个绘图要符合物理,那我们的 AI 它必须是基于物理为基础,它必须要了解物理的定律。那当然你也可以从这个学看这个影片来学习。
另一个方式是模拟,还有一个方式就是电脑彼此之间可以互相学习,这个就有点像是Alphago,它跟自己对答一样, Alphago 之间对答,那在这两个非常厉害的超级电脑之间,他们对答,他们花很长的一段时间来对答,那么他们之后就当然就变得更聪明,所以大家未来会看到这一类的 AI 不断地出现。
如果说 AI 资料它是合成生成的,然后使用强化学习,那么当然这个资料生成的速度就会增加,每一次资料生成的速度增加,那我们所需要的运算能力,当然也就必须要增加。
AI 之后会更了解物理定律,它一切的生成都会基于物理定律,所以未来的模型只会越来越厉害,因此我们需要更大的GPU。
Blackwell 就是为了这样子的一个新的时代而发明的,这个就是Blackwell。那当然其中光是这个晶片的规模,晶片的大小,大家就会发现是一个很大的成就,因为台积电它可以生成的最大镜片,我们把它连结在一起,它每秒是 10TB的连接,这个可以说是全世界最先进的,把它连接在一起,然后我们把这两个放在一个电脑的节点上,用 Grace CPU 把它连接在一起,
Grace CPU 可以做很多事情,在训练的这一个情境里头,我们可以来做这个快速的检查点,然后重新启动。那么在推论的情况,它可以用来储存这个情境的记忆,所以 AI 它就有记忆了,它了解这个对话的情境,这是我们的第二代的 Transformer 的引擎,让我们可以去动态地去适应更低的精度,根据我们所需要的精度、需要的范围来调整。
这是第二代的GPU,是我们可以请要求我们的这个服务供应商来保护我们的AI,让他不会被偷窃或者是被这个毁坏,这是我们第五代的 NVlink NVlink,这样我们可以把多个 GPU 连结在一起,等一下会再给大家展示。除此之外,这也是我们的第一代有一个可靠而且可用的引起引擎这个系统,让我们去测试每一个电晶体,每个 Flipflop 的这个记忆。不管是晶片上或晶片外,让我们可以去决定说某一个晶片是不是失灵了,那如果说一台超级电它有1万个GPU,那它的这一个平均时间是一万个小时过去,但是现在是用分钟来测量的,所以一台超级电脑它要能够运行很长的一段时间,让它可以长期好几个月来训练一个模式模型。那一它的前提是我们的科技要非常非常的可靠。换句话说它不能够中断运行,那你要持续地让它运行,它就要花很多的时间,很多的金钱。所以我们加入了一个资料的压缩引擎,还有解压缩的引擎,这样我们可以在这个资料存取上面可以快20倍。
那么这个都是Blackwell,我们这边有一个已经在生产中的Blackwell,在GTC,我有给大家看Blackwell,它是一个原型。这就是我们正式生产的 Blackwell,里头有最尖端的科技。这就是我们实际生产的一个版,可以说是有史以来功能效能最强大的一个晶片。这个是我们的 CPU 每一个裸金,应该说我们把两个 GPU 的裸晶串联在一起,这可以说是世界上我们可以生产出来的最大的晶片。
而且它两个串联起来的时候,它的连接的速度是 10 个TB,这个是 Blackwell 的电脑,它的效能非常的强大,请各位注意一下我们的荧幕上面所秀出来的。我们来看一下它的浮点运算能力,每一代的产品,它的浮点运算能力几乎 8 年内增加了 1,000 倍。摩尔定律,如果是经过 8 年的话,顶多我们算一下大概 40 倍,顶多对不对? 40 倍? 60 倍。可是在过去这 8 年当中,摩尔定律它的速度已经变慢了,所以我们来做个比较,即便是在摩尔定律的巅峰时期拿来跟 Blackwell 做一个比较。其实 Blackwell 我们看到这个GPU 的运算能力,它进步的速度真的太快了,而且它的成本会不断的下降。
因此因为它的运算能力不断地提高,这也代表我们用来训练 GPT 4 系统,也就是它有两兆个参数,有 8 兆个token的这样的一个系统,我们所要消耗的电力大概就是原来的 1/ 350 而已。
我们现在还没有一个Gigawatt的资料中心。你如果是有这样的资料中心,你要花一个月来处理资料。如果是 100 个 Megawatt的级别,你要花一整年的时间来处理这么多的这个资料,当然我们不可能去盖这样一个资料中心,这就是为什么大型语言模型过去 8 年之前它是不可能的,可是因为它的效能提升了,能源效率提升了,它的成本下降了,因此我们有了 Blackwell 之后,也就是如果是最高化的资料中心,要过去要花 1, 000 年,现在只需要 3 年。譬如说如果有1万个 GPU 的话,大概只需要几天就可以完成了,大概十天就可以完成同样的资料处理的数量,所以这过去八年的进步的速度真的是非常的惊人。我们现在讲的是推理,讲的是token的生成,因为这个效能越来越大,所以我们消耗的电力只有过去的 1/ 45。过去 Pascal 每个token大概要1000GWh的能量。换句话说,过去 Pascal 要产生 GPT 4 要有 ChatGPT 这样的系统出现几乎是不可能的事情,可是我们只需要用 0.4 焦耳 就可以产生一个token,而且token生成的速度非常的快,它消耗的能源非常的低。
真的是一个大跃进。即便如此,还是不够,我们必须要打造更大型的机器,这就是我们所谓的 DGX,这是我们的 Blackwell 的镜片。把它放到 DGX 系统当中。这就是DGX。里头有 8 个这样的GPU。你们有没有看到这里头我们的散热系统大概是 15, 000 千瓦,它是气冷式的,它可以支援X86,而且可以跟我们的 Hooper 结合在一起。
不过假如你要液冷式的系统的话,我们现在也有这个新的产品,就是用这样的一个板子,我们把它叫做MGX,叫做模组化的一个系统,可能大家看不清楚,这就是我们的 MGX 系统,里头有两个Blackwell 的板子。那每一个板子有 4 个Blackwell 的晶片,这个是液冷式的系统, 9 个加在一起,这里有 9 个,总共 72 个GPU,把他们用NVlink,新的 NVlink 连接在一起,这是我们 NVlink Switch,是我们第五代的 NVlink 的产品。 NV link Switch可以说是科技上的一种奇迹。我们如果把这个 blackwell 所有的晶片串联在一起的话,就可以有一个 72 个 GPU 的 Blackwell 系统。这样做有什么样的好处呢?你在每一个 GPU 的领域当中看起来就是。一个 GPU,其实上实际上它有72个,上一代的版本只有8个,所以是过去的9倍,而它的平宽是过去是8倍。而它的浮点运算能力是过去 45 倍,可是它所消耗的电力只有过去的 10 倍,这是一个 100 个kilowatt,之前是 10 个kilowatt。
当然你可以把更多的这个晶片串联在一起,我这个晶片,这个 Nvlink 的晶片,为什么说它是一个科技上的奇迹呢?因为这 Nvlink 把这所有的这个镜片串联在一起,大型语言模型不能够只有一个节点,不能够只有一个 GPU。我们必须要把每整个机架里头所有的 GPU 全部都连接在一起,这样子我们才能够有一个可以处理 10 兆个参数以上的大型语言模型,它有 500 亿个电晶体,而且它每一个有 72 个port,它有 4 个 NV link,它每一秒钟的速度是 1.8 个 TB。为什么 Nvidia 就单凭 GPU 规膜就能够变得这么大?这个就是 GPU 看起来就像这个样子,这可以说是世界上最先进的GPU,不过是打电话用的GPU,可是我们都知道我旁边的这个也是一个GPU。各位女士,各位先生,这就是我们的 DGX GPU,跟过去已经截然不同了,后面就是 NVlink 所组成的一个背板,这个背板当中有五千条线,加起来有两英里这么长。
这个这就是我们所谓的 Nvlink 的背板,可以连接 72个GPU,把 72个 GPU 连接在一起,这可以说是在电机学上面的一种奇迹。因为它有transfer,它里头透过铜线让这个 NV link 的交换器透过这个背板当中的铜线,让我们的一个机架可以节省 20 个kW。
因为我们要打造 AI 工厂,所以我们必须要有更高速的网路技术。我们有infiniband,我们有两种,第一种是 infiniband 用在 AI 工厂,用在超级电脑当中,而且它成长的速度非常的快,可是并不是每个资料中心都可以用 INFINI band,因为他们以前已经采用了以太网路了。
实际上你要管理 Infini band 是需要一些特别的技术,因此我们就把 Infinitband 它有的一些功能,把它摆到以太网络的架构当中,这其实非常的困难,为什么呢?道理非常的简单,以太网络当初设计的时候,它是针对平均传输量比较高的系统,每一个电脑,每一个节点都是连接到一个不同的人,而大部分是资料中心跟另外一端的人在进行沟通。
可是 AI 工厂当中的深度学习系统,GPU 并不是跟人来做沟通, GPU 是他们彼此之间在做沟通,为什么呢?因为他们在收集一些资料,也就是把这个产品的部分的资料收集起来,然后进行缩减,然后再重新的来进行分配。所以重点不是平均的传输量,而是说最后一个接收到资讯的那个GPU,因为你是从每一个人那边去收集一些资料,譬如说。我把每个人都在做的东西这边拿一点,那边拿一点,然后看谁的速度最慢,这个系统的速度就决定是哪一个人给我资料的时候速度最慢,那个人就决定了这样的一个速度。过去以太网路是办不到的,所以我们必须要有端到端的架构。
而且这当中有四个不同的技术, Nvidia 有世界上最先进的RDMA和以太网网络级别的RDMA,除此之外我们还有拥塞控制系统这个交换器,它很快地在处理这些参数的数值。因此每次假如有任何的 GPU 送出太多的资料,我们就叫它慢一点,这样子才不会产生瓶颈。第三个就是调试性的路由器。以太网路必须要传送跟接收资料的时候必须要按顺序来,还有一个很重要噪声隔离,因为我们在训练的模组不止一个,所以资料中心里头一定都会有一些噪声,那一旦进入我们的工作流程当中就会产生很多的杂音。那这样子就会影响这个资料传递的速度,就会使训练的速度变慢。我们已经打造了一个 50 亿是或者是 30 亿美金造价的资料周期来做训练。假如它的利用率、网络的利用率下降了40%,那你所需要的训练时间就必须要增加20%。
50亿的资料中心现在就突然变成像 60 亿的资料中心,为什么?因为它的成本增加了,所以原本你只花了50亿,实际上感觉就像60亿美金一样。所以我们的系统就可以去改善这些问题,这个是一个了不起的成就。我们现在有很多以太网络的产品会陆续的推出。这个是 Spectron- X800。
我们当然希望能够训练比较大型的模型,不过在未来我们在跟网络或者跟电脑进行互动的时候,里头,应该在云端系统里头都会有生成式的 AI 系统在里面,它在跟你进行互动,在不断地生成图片、影片、文字或甚至有一个数位人在里面。所以你几乎不断地在跟电脑具有生成式 AI 功能的电脑进行互动,有些时候是在你的装置当中,有些是在云端系统里面,而且这个深层式的 AI 它可以帮你做推论,它可以帮你做推理,所以它会不断地进行思考,之后再把最好的答案告诉你。所以以后我们透过这样的系统可以办到的事情是我们现在难以想象的。
当然是第一代的 Nvidia 平台,这个平台是我们生成式 a i 时代开始的时候所推出的,当时我们才了解 AI 工厂的重要性,这个新的产业革命的开端,我们有非常非常多的这个伙伴,不管是 OEM 电脑制造商、CSP、GPU,甚至是电信公司,各式各样的企业,他们都站在我们的背后。这个他们采用的比例,他们对于 Blackwell 的支持程度,我真的是感激得无以名状。但是我们也不停下自己的脚步,在这个成长的期间,我们希望可以持续的强化效能,持续地降低成本、训练的成本、推论的成本,持续的扩充 AI 的能力,让所有的公司都能够拥有AI,我们效能越高,成本越低。
Hopper平台当然是最成功的资料中心处理器,这应该是史上最成功的,而这真的是一个非常非常了不起的成功故事。
但是现在有了 Blackwell 了,我们每一个平台大家都会看到你有CPU、有GPU、 NVlink、有NVlink Switch,那么这个 Nvlink switch 它会把所有的 GPU 连结在一起,把它变成一个最大的领域,然后我们因此可以用非常高速的这个连交换期,但是其实它是一整个平台,我们打造一整个平台,我们把整个平台整合成一个 AI 工厂的超级电脑,然后我们再把它分散,让全世界都可以使用。
那我们现在推出了 Blackwell 的平台,我们是一年一个节奏。我们基本上的这个理念就是说我们要建立这整个资料中心,把它汇整在一起,然后再把它分拆给大家。那我们的节奏是一年一次,所以不管这个台积电的制程技术会把它推到什么样子的极限,不管封装的技术可以把它推到什么样子的极限,或者是序列器的这个光学的技术可以推到什么程度,反正他们推到什么程度,那我们就会利用让我们所有的软件都可以在这整个架构上运行。
那 Blackwell 现在已经推出了,明年是 Blackwell Ultra,我们之前有H100、H200。那因此大家未来会看到新的Blackwell,下一代就是 Blackwell Ultra,一样是推到极限,那还有下一代的 Spectrum switch,那这个是我们第一次给大家看这个。我们公司里头有各式各样的开发代码,我们尽量地保密,有的时候大部分的员工甚至都不晓得这些开发码是什么。但是我们下一个平台叫做 Rubin 的,这个平台我不会花太多时间讲,因为我知道会发生什么事情,大家一定会拍照,然后会去想办法去看它里头的这个细节。
Rubin 的平台一年之后我们会有Rubin Ultra 的平台,那么这一些给大家看的晶片都已经在开发当中了, 100% 都在开发当中了。而这个如这个一年推出一次的节奏,基本上就是跟我们的架构是相融的,那所以上面当然也会有很多的这个软件。那过去这 12 年从我们 Imagenet 开始,然后我们了解到说这个运行的,那这个运算的未来会有大幅的改变的时候。其实就像我刚才给大家看的 GeForce,他在 2012 年之前跟现在的这个 Nvidia 有什么差别?其实我们整个公司已经有很大的转型,这个就是 Nvidia 的 Blackwell 平台。
我接下来要讲我们未来的发展,我想新一波的 AI 就是所谓的符合物理定律的AI,这个 AI 理解物理定律AI,它可以在我们的生活周遭协助我们,因此 AI 必须要了解整个世界,让他们可以知道怎么样子去感知这个世界,当然这个 AI 也有非常好的认知能力,让他们了解我们,让 AI 能够了解我们到底在问什么样子的问题,帮我们做什么样子的事情。
未来机器人会是越来越普遍的一个概念,我所谓的机器人包括了人形机器人,人形机器人通常就是大家想知道机器人的时候想象的这个,出现的这个想象,但是不仅是这个人形机器人,未来机工厂里头会有很多的机器人,那么这些机器人他会制造各式各样的机器,那换句话说这个机器它互相互动会有互动,然后它可以去制造这个机器人。
这个不是未来,这个是现在就在发生的事情。我们未来服务市场的方式有很多种。第一个是针对不同的机器人系统来打造平台。第一个是像是机器人的工厂或者是仓库,另外一个则是能够操作东西的机器人。再来是移动的机器人,最后一个是人形的机器人。所以每一个不同的机器人平台,跟我们过去做的一样,就是会有一个电脑有加速的函式库,还有预先训练的模型,然后我们去测试一切,训练一切,把它整合在Omniverse里头。Omniverse就如同影片里头所说的,就是机器人学习怎么成为机器人。当然整个生态系就是机器人的仓库的这个生态是非常的复杂,因为它需要很多的公司,很多的工具,很多的技术才能够让我们打造一个现代的一个仓库。这未来它机器人当然会越来越能够自主。在这些不同的生态体系里会有SDK, 会有API, 它把它连接到各式各样的软件。还有是连接到边缘AI的产业。
有一些公司,他们则是去设计PLC, 这个是由ODM,会有整合商把它整合在一起,来打造顾客所需要的仓储。就比方说campaign,他们就在为巨大集团打造一个工厂。然后这边我们接下来谈一谈工厂,未来工厂会成为一个不一样的生态链。现在鸿海在在打造世界上最先进的工厂,包括了边缘运算机器人,还有设计工厂的软件,各式各样的工作流程,还有PLC电脑,还有机器人的编程。这些全部都会把它整合在一起,这些SDK都会跟这些生态体系生态系连接在一起。这个全部都在台湾发生,鸿海正在打造他们工厂的数位孪生模型。台达电子也在打造自己数位工厂的数位孪生模型。有一半是数位的,一半是真实的。和硕他们也在打造他们的机器人工厂。伟创也在大门的这位孪生模型,然后这边真的很酷。
这个影像是鸿海新的工厂。随着世界将传统资料中心现代化为生成式AI工厂,对NVIDIA加速运算的需求正在飞速提升。鸿海科技集团作为全球最大的电子制造商,正准备通过使用NVIDIA Omniverse 和AI建造机器人工厂来满足这一需求。工厂规则者使用Omniverse以整合来自产业领先应用程式的设施和设备数据,例如Siemens Team Center X和Autodesk Revit。
在数位孪生中,他们优化厂房布局和生产线配置,并确定最佳相机位置,以及使用NVIDIA Metropolis 驱动的视觉AI监控未来的运营。虚拟整合节省了规则者大量的实体变更订单成本。在施工过程中,鸿海团队使用数位孪生作为真实依据来沟通和验证准确的设备布局。Omniverse数位孪生也是机器人训练场,鸿海的开发者在这里训练和测试,用于机器人感知和操作的NVIDIA Isaac Ai应用程式, 以及同于感测器融合的MetropolisAI应用程式。在Omniverse中,鸿海在将运行时部署到Jetson电脑之前模拟了两个机器人AI。在生产线上,他们模拟了Isacc Manipulator函数式库和AI模型,用于物体识别的自动光学检测、瑕疵检测和轨道追踪。为了将HGX系统转移到测试模组,他们模拟了由Isacc Perceptor驱动的FARobotAMR,这些机器人能感知并在其环境中移动,具有3D地图绘制和重建功能。通过Omniverse,鸿海建立了自己的机器人工厂,这些工厂协调运行NVIDIA Isacc上的机器人来组装NVIDIA AI超级电脑,而这些超级电脑又反过来训练鸿海的机器人。
机器人工厂其实就是具备AI功能的电脑来协助训练。因为需要有人进行工厂里头各种作业,项目的协调,机械手臂、机械移动,自主性移动的这个机器人其实也一样的道理。他们会在同样的虚拟空间当中,而这个机械手臂就会被摆到这个机器人工厂里面。
这里有三个不同的电脑,包括了接下来acceleration,一直加速运算,还有训练的模组。这当中我们刚才已经听到了,在Omniverse里头我们有操作系统,有感知系统,这个真的是一个很棒的计划。我们也跟我们伙伴共同合作,Siemenic AI他还整合了IsaccManipulator, 还有很多都是我们的合作伙伴。而西门子的这个也帮我们做了系统的整合。
我们一起来看一下系统整合的结果。ArcBest 正在将Isacc Perceptor整合到Vaux智能自主机器人中,以增强物体识别功能,以及人物动作追踪和物料处理。
比亚迪电子正在整合Isacc Manipulator和Perceptor到他们的人工智能机器人中,以提升全球客户的制造效率。
Idealworks正在将Isacc Perceptor整合到他们的iw. os软件中,以用于工厂物流中的人工智能机器人。
Alphabet旗下的Intrinsic公司正在将Isacc Manipulator整合到他们的Flow State平台中,以提升机器人的抓取能力。
Gideon正在将Isacc Perceptor整合到TREY AI驱动的堆高机中,以推进启用人工智能的物流。
RGo Robotics正在采用Isacc Perceptor,以用于高级基于视觉的自主移动机器人的感知引擎中。
所以我们现在有机器人,有物理AI,这不是科幻小说。其实台湾很多的工厂都已经在使用这些系统了,所以工厂里头会有的机器人。有两种机器人,它市场是非常大的。第一种是自驾车,自驾车它有很高的自主适应。Video我们有完整系列产品。明年我们CDS会使用我们的系统。2026年还有另外一家其他公司也会使用我们的系统。不论我们开发的是哪一个层级的这个产品,我们都会把它做到最好。而接下来最大的机器人的市场是跟制造业有关。因为在制造业的工厂当中,有很多的机器人,大部分都是人形机器。其实近年来在这方面已经有了长足的进步,他们因为有了基础模型是有更好的感知能力,而且我们也不断的在开发具备更好感知能力的机器人系统。其实,人形机器人是使用起来最简便的一种机器人。我们可以有大量资料来训练这些机器人。因为他们的外形是跟我们一样的,我们以后这样的人形机器人,他们会有非常好的感知跟操作的能力。
我们说机器人的时代已经来了,未来是属于人工智慧的时代。台湾过去生产有键盘的电脑,我们把这首口袋里面的电脑,还有资料中心里头的这个电脑移动。可是以后的电脑它会走,它会过来晃来晃去的。这些其实都是电脑,其实他们里头用到的科技跟我们现在台湾所生产这些电脑产品,所使用的科技非常的类似。我们非常期待未来属于人工智慧时代,属于机器人的时代。
天风电子潘暕团队成员介绍潘暕 天风证券电子行业首席分析师。复旦大学微电子与固体电子学硕士,复旦大学微电子学本科,国际经济与贸易第二专业,曾就职于安信证券任分析师,对电子行业有全面深刻见解,挖掘了众多高成长企业,与产业深入合作帮助企业发展,善于推荐科技创新大周期的投资机会。2019、2020年新财富最佳分析师分别获得第四名、第二名,2021年新财富入围,2015-2016年新财富第一团队成员,2017年新财富第二团队成员。2015-2016年水晶球第一团队成员,2017、2019年水晶球分别获得第二名、第五名。2015-2016年金牛奖第一团队成员,2017、2020、2021年金牛奖分别获得第二名、第四名、第二名。2018年Wind金牌分析师第一名,2020-2021年Wind金牌分析师第二名。2019-2021年金麒麟最佳分析师分别获得第三名、第四名、第六名。2020年上海证券报最佳分析师第三名,2021年21世纪金牌分析师第五名,Choice 2021年度电子行业最佳分析师第三名。温玉章 分析师。计算机及工业工程专业背景,12年以上苹果产品(iPod & iPhone)研发和新产品导入工作经验,对电子,计算机,互联网产业链的发展趋势有较深的认知和理解。骆奕扬 分析师。南京大学物理系本科,香港科技大学集成电路设计硕士。3年电子行业研究经验,覆盖半导体制造、半导体装备材料及部分半导体设计。程如莹 分析师。北京大学计算机专业硕士,覆盖半导体IC设计、MCU/SOC/IGBT/模拟芯片行业&公司覆盖报告。许俊峰 分析师。伯明翰大学工商管理学硕士,覆盖安防、LED、汽车连接器及智能座舱等。俞文静 分析师。香港中文大学金融理学硕士,覆盖消费电子及 PCB 产业链。李泓依 助理研究员。美国埃默里大学会计学及金融学学士、会计学硕士,覆盖半导体封装测试及部分材料装备,已撰写包含汽车芯片、第三代半导体、虚拟显示等多篇行业深度报告。吴雨 助理研究员。利物浦大学金融计算学士,昆士兰大学商务硕士,覆盖部分被动元器件、面板及半导体材料等领域。冯浩凡 助理研究员。新南威尔士大学信息系统学士,金融学硕士,覆盖部分汽车电子领域。包恒星 助理研究员。南京大学材料物理本科、材料物理与化学硕士,覆盖消费电子领域。