杨立昆:公开嘲讽埃隆·马斯克和炮轰大模型的AI先驱
易简财经
近日,著名AI先驱杨立昆(Yann LeCun)先生在X媒体上公开嘲讽埃隆·马斯克,引发了众人热议。
起因是马斯克为旗下人工智能公司xAI招聘,杨立昆在底下回复:
如果你能忍受这样一位老板,那就加入xAI。
- 这位老板声称你正在做的事情将在明年由AI替代解决(没有压力);
- 声称你正在做的事情会毁灭人类,必须停止或暂停(耶,放六个月的假!);
- 声称想要对真理进行最严格的追求,但却在自己的社交平台上散布疯狂的阴谋论。
两人对AI的安全性产生了巨大分歧,杨立昆为何对目前的大模型给予负面评价,并认为人工智能的威胁远没有马斯克声称的那么严重呢?
谁是杨立昆?
杨立昆(Yann LeCun),2018年图灵奖获得者,美国国家工程院和法国科学院的院士,Meta(原名Facebook)的首席科学家,纽约大学Silver Professor,被誉为“卷积神经网络之父”,是一位在人工智能领域具有重要影响力的科学家。
杨立昆有超过190篇论文和14项专利,并著有《科学之路:人,机器与未来》等。
1960年,杨立昆出生于法国巴黎。
1983年,他获得了法国高等电子与电工技术工程师学校(ESIEE Paris)的学士学位,并在Pierre et Marie Curie大学获得了计算机科学博士学位。
1987年至1988年,杨立昆是多伦多大学Geoffrey Hinton实验室的博士后研究员。
2016年,他被墨西哥城的IPN学院授予荣誉博士学位。
2018年10月,他获得了EPFL的荣誉博士学位。
2023年11月17日,他在香港科技大学获颁荣誉博士学位。
耀眼的职业生涯
1988年,他加入了AT&T贝尔实验室的自适应系统研究部门,这一部门由劳伦斯杰克尔(Lawrence D. Jackel)领导,位于美国新泽西州的霍姆德尔镇。
在那里他开发研究出了许多新的机器学习理论,例如应用于图像识别领域的生物启发类模型(也就是目前人们熟知的卷积神经网络)“最佳脑损伤”正则化方法,和图形转换网络方法(类似于条件随机场)。
1989年,他开始将卷积神经网络的概念与实践相结合,他提出了一种革命性的卷积神经网络(CNN)模型——LeNet。
这个创新性的模型使得计算机能够自动从图片中学习和识别图像特征,从而在图像识别领域取得了突破性进展。
LeNet模型也为现代深度学习奠定了基础,被誉为卷积神经网络的开山之作。
他将这些新的理论和方法应用于手写字符识别和光学字符识别领域(OCR)。他帮助开发的银行支票识别系统被NCR和其他公司广泛使用,在20世纪90年代末和21世纪初,美国有10%以上的支票是通过这一系统来进行处理识别。
2003年,在新泽西州普林斯顿市的NEC研究所(NEC Research Institute,现更名为NEC-Labs America)短暂任职后,他加入纽约大学(NYU)。
在那里他担任柯朗数学科学研究所(The Courant Institute of Mathematical Science)和神经科学中心(The Center for Neural Science)的计算机科学和神经科学领域的Silver Professor(Silver Professor of Computer Science Neural Science)。
他同时也是坦登工程学院(Tandon School of Engineering)的任职教授。在纽约大学任职期间,他主要致力于研究基于能量理论的监督和无监督学习模型,计算机视觉领域中目标识别的特征学习,以及可移动机器人。
2012年,他成为了NYU数据科学中心的创始人之一。
2013年12月9日,在纽约市,杨立昆受邀加入了全球最知名的科技巨头之一——Facebook(现名Meta),担任人工智能研究实验室(FAIR)的创始主任,之后一直任FAIR的负责人及Meta首席科学家至今。
“人工智能的安全威胁没有那么大”
杨立昆(Yann LeCun)在《科学之路:人,机器与未来》以及多次公开演讲中,明确表示:
(1) 关于大语言模型(LLMs)
杨立昆认为理解物理世界的能力,记忆和检索事物的能力,推理能力和计划能力,这些是智能的四个本质特征,而LLMs都做不到。
他认为我们今天正在使用的LLMs还无法做到真正的理解世界,这其中有很多原因,但最主要的原因是:LLMs的训练方式是用一段缺失了部分文字的文本去训练一个神经网络来预测缺失的文字。
事实上,LLM并不预测词语,而是生成字典中所有可能词语的概率分布,然后从概率分布中选择一个词放入文本序列的尾部,再用新生成的文本去预测下一个词,这就是所谓的自回归预测。
但这种自回归的方式与人类的思维方式有很大的不同。
人类大部分的思考和规划都是在更抽象的表征层面上进行的,换句话来说,如果输出的是语言(说出的话)而不是肌肉动作,人类会在给出答案之前先思考好答案。但是LLM不这样做,它们只是本能地一个接一个地输出文字,就像人类的某些下意识动作一样。
(2) 关于人工智能的未来-“世界模型”
对于人工智能的未来,杨立昆提出了“世界模型”,他认为构建世界模型意味着观察世界并理解世界以何种方式演变,然后预测世界将如何随着你可能采取的行动而演变。
因此,真正的世界模型是:我对某时刻T时世界状态的想法,叠加此时我可能采取的行动,来预测在时间T+1时的世界状态。这里所指的世界状态并不需要代表世界的一切,不一定需要包含所有的细节,它只需要代表与这次行动规划相关的足够多的信息。
十年来,我们使用生成式模型和预测像素的模型,试图通过训练一个系统来预测视频中将发生什么来学习直观物理,但失败了,我们无法让它们学习良好的图像或视频表征这表示,我们无法使用生成式模型来学习对物理世界的良好表征。
目前,看起来可以更好地构建世界模型的一种新方法是“联合嵌入",称为JEPA(联合嵌入式预测架构),其基本思路是获取完整的图像及其损坏或转换的版本,然后将它们同时通过编码器运行,然后在这些编码器之上训练一个预测器,以根据损坏输入的表征来预测完整输入的表征。
JEPA与LLM有什么区别?
LLM是通过重建方法生成输入,生成未损坏、未转换的原始输入,因此必须预测所有像素和细节。而JEPA并不尝试预测所有像素,只是尝试预测输入的抽象表征,从本届上学习世界的抽象表征(例如风吹树叶,JEPA在表征空间中预测,会告诉你树叶在动,但不会预测每个树叶的像案)。
JEPA的真正含义是,以自我监督的方式学习抽象表征,这是智能系统的一个重要组成部分。人类有多个抽象层次来描述世界万象,从量子场论到原子理论、分子、化学、材料,一直延伸到现实世界中的具体物体等。
(3) 关于人工智能的安全性与开源的重要性
杨立昆认为人工智能的安全威胁远没有那么大。
人工智能系统一定是渐进式发展的,我们将拥有像猫一样聪明的系统,它们具有人类智能的所有特征,但它们的智能水平可能是像猫或鹦鹉之类的;然后,我们再逐步提高它们的智能水平,并在让它们变得更聪明的同时,设置一些“护栏”,并学习如何设置“护栏”,让它们表现得更加正常。
这不会是一次努力,会有很多不同的人在做这件事,其中一些人将会成功地制造出可控、安全、有正确防护措施的智能系统。如果有其他系统出了问题,我们就可以利用好的系统来对抗坏的系统。
而且杨认为“人工智能系统不会成为一个物种,更不会成为与人类竞争的物种,因为它们没有主宰的欲望,主宰的欲望必须是智能系统中固有的东西。”
同时,为了避免人工智能的威胁,杨立昆认为开源平台是确保人工智能安全的重要因素。让各种不同的人能够构建代表全球文化、观点、语言和价值体系的多样性的人工智能助理,这样就不会因为单个人工智能实体而被特定的思维方式洗脑。
小结
杨立昆(Yann LeCun),作为2018年图灵奖获得者和卷积神经网络(CNN)的先驱,对人工智能领域做出了重大贡献。他拥有丰富的学术成就和专利,同时在职业生涯中推动了机器学习理论和应用的发展,特别是在图像识别和深度学习方面。
杨立昆对当前的大型语言模型(LLMs)持批判态度,认为它们缺乏智能的四个本质特征:理解物理世界、记忆和检索、推理和计划能力。他指出LLMs的训练方式存在根本性问题,主要依赖自回归预测,这种方式与人类的抽象思维和语言生成方式有显著差异。
他提出了“世界模型”的概念,强调构建能够观察、理解和预测世界演变的模型是人工智能发展的关键。
杨立昆认为,开源平台是确保AI安全的重要因素,提倡构建多样化的AI助理,避免被单一思维方式所主导。他反驳了人工智能末日论,认为智能系统的发展将是渐进的,并伴随着适当的控制和防护措施。
总的来说,杨立昆的观点强调了发展更高级、更安全、更接近人类智能的AI系统的必要性,并指出了当前技术的局限性和未来可能的发展方向。