▲2019年,杨立昆(中间)与本吉奥(最左边)和辛顿(最右边)共同获得了计算机科学领域的最高奖项图灵奖(图源:《华尔街日报》)
如今,杨立昆继续在纽约大学与他的博士生一起发表论文,同时他作为Meta的首席AI科学家,领导着世界上资金雄厚的AI研究组织之一。他经常与Meta CEO马克·扎克伯格(Mark Zuckerberg)见面并通过WhatsApp聊天,扎克伯格正将Meta定位为AI热潮中对抗苹果和OpenAI等其他科技巨头的力量。
在现实生活中,杨立昆有一种让人消除戒心的魅力:调皮、机智,随时准备说出他认为是自己领域的残酷真相。64岁的他看起来既时尚又有点邋遢,这很适合一位曾经的巴黎人,他的眼镜是经典的黑色雷朋镜框。
坐在Meta位于纽约市的一个卫星办公室的会议室里,他散发着温暖和亲切的自信,带着那种让你觉得自己也参与了这个笑话的笑容发表他的尖锐观点。
一、杨立昆否认AI威胁论,称现有AI不如一只宠物猫
杨立昆与竞争对手和朋友都进行过争论。今年春天,他在海外社交平台X上与马斯克就科学研究的本质发生了激烈争辩。
杨立昆还在公开场合与辛顿和本吉奥就他们反复发出的AI对人类构成危险的警告表示不同意。
本吉奥说,他在很多问题上与杨立昆意见一致,但在公司是否可以被信任以确保未来的超人类人工智能(superhuman AIs)不会被人类恶意使用,或者超人类人工智能不会产生自己的恶意意图这一问题上存在分歧。
“我希望他是对的,但我认为我们不应该仅仅依靠公司之间的竞争和利润动机来保护公众和民主,”本吉奥说,“这就是为什么我认为我们需要政府的参与。”
杨立昆认为AI是一个强大的工具。在整个采访中,他列举了许多AI在Meta变得极其重要的例子,并使Meta的规模和收入达到了目前约1.5万亿美元的价值。AI是Meta工作中不可或缺的一部分,从实时翻译到内容审核,除了其基础AI研究团队(称为FAIR)之外,Meta还有一个以产品为重点的AI小组GenAI,正在追求其大型语言模型的更好版本。
“这对Meta的影响确实非常巨大。”他说。
同时,他确信当今的AI在任何有意义上都不是智能的——而且该领域的许多其他人,尤其是在AI初创公司中,准备以他认为荒谬的方式推断其最近的发展。
如果杨立昆的观点是正确的,这对当今一些最热门的初创公司来说意味着麻烦,更不用说那些向AI投入数百亿美元的科技巨头了。他们中的许多人都寄希望于这样一种想法,即当今基于大语言模型的AI,如OpenAI的那些,正处于在短期内创造所谓的“通用人工智能”(AGI)的道路上,这种AI将远远超过人类水平的智能。
OpenAI的萨姆·阿尔特曼(Sam Altman)上个月在一篇博客中提到,我们可能在“几千天内”拥有AGI。马斯克则认为可能在2026年实现。
杨立昆认为这样的说法可能为时过早。今年5月,一位即将离职的OpenAI研究人员谈到需要学习如何控制超智能人工智能时,杨立昆进行了反驳。“在我看来,在‘紧急弄清楚如何控制比我们聪明得多的AI系统’之前,我们需要先设计一个比家猫更聪明的系统。”他在X上回复道。
他喜欢猫的比喻。他说,毕竟猫科动物拥有物理世界的心理模型、持久的记忆、一些推理能力和计划能力。而这些品质在当今的“前沿”AI中都不存在,包括Meta自己制造的AI。
自1986年就认识杨立昆的莱昂·博图(Léon Bottou)说,杨立昆是一种“善意的固执”,也就是说,他愿意倾听别人的观点,但会一心一意地追求他认为构建AI的正确方法。
亚历山大·里夫斯(Alexander Rives)曾是杨立昆的博士生,后来创立了一家AI初创公司,他说杨立昆的挑衅是经过深思熟虑的。“他有这样的历史,即真的能够看到该领域在思考问题方式上的差距,并指出这一点,”里夫斯说。
二、杨立昆认为只是堆砌芯片和数据的规模并不能实现AGI
杨立昆认为真正的AGI是一个有价值的目标——Meta也在努力实现这个目标。
“在未来,当人们与他们的AI系统、智能眼镜或其他任何东西交谈时,我们需要这些AI系统基本上具有人类水平的特征,真正具有常识,并真正像人类助手一样表现。”他在采访中说。
但他接着补充道,创造一个如此有能力的AI可能需要几十年的时间——而当今的主导方法无法让我们实现这一目标。
生成式AI热潮是由大语言模型和类似的系统推动的,这些系统在海量数据上进行训练以模仿人类表达。随着每一代模型变得更加强大,一些专家得出结论,只要将更多的芯片和数据投入到开发未来的AI中,就能使它们变得更有能力,最终与人类智能相匹配或超越人类智能。这就是在构建越来越多的专用芯片池以训练AI方面进行大量投资的背后逻辑。
杨立昆认为当今AI系统的问题在于它们的设计方式,而不是它们的规模。他说,无论科技巨头在全球的数据中心中塞进多少GPU,当今的AI都不会让我们实现AGI。
他的赌注是,对于以不同方式工作的AI的研究将为我们开启一条通往人类水平智能的道路。这些假设的未来AI可能有多种形式,但目前让杨立昆兴奋的项目之一是在FAIR进行的从现实世界的视频中提取信息的工作。这个想法是创建以类似于幼年动物的方式学习的模型,通过从其所接收的视觉信息中构建一个世界模型。
用于ChatGPT和其他聊天机器人的大语言模型将来可能在使用一系列其他技术和算法构建的具有常识和类人类能力的系统中只发挥很小的作用。
他说,当今的模型实际上只是在预测文本中的下一个单词。但它们在这方面非常擅长,以至于欺骗了我们。而且由于它们巨大的存储容量,它们似乎在进行推理,但实际上它们只是在重复已经训练过的信息。
“我们习惯于这样的想法,即能够表达自己或操纵语言的人或实体是聪明的——但这不是真的,”杨立昆说,“你可以操纵语言但并不聪明,而这基本上就是大语言模型所展示的。”
结语:三位“AI教父”的对于AI威胁论持不同意见
曾经一同获得2018年度图灵奖的三位“AI教父”,如今对于AI的认识与思考逐渐产生了分歧。
杨立昆否认AI威胁论,认为此类言论是“胡说八道”,现有的AI没有人类想象中强大,实现AGI也为时尚早,想要创造出超越人类的智能则有更长的路要走。
而另外两位科学家,辛顿和本吉奥,则不断敲响警钟,呼吁大众、企业和政府对AI背后的道德和伦理进行深刻反思。
辛顿曾提出AI威胁论,他在诺贝尔奖颁奖典礼电话采访中谈道,很担心AI会失去控制并取代人类,OpenAI应该把安全研究放在首位。他还曾说过,AI可能创造出超越人类的智能,这可能会导致人类处于劣势。
本吉奥在今天发布的最新采访视频中说道:“我们不清楚如何避免这些系统变得自主,并有自己的保护目标,我们可能会失去对这些系统的控制。所以我们可能正在走上一条创造比我们更强大的怪物的道路。”
来源:《华尔街日报》、雅虎