都是信息惹的祸
作者丨石菲
封面来源丨电影《她》
在真相和秩序之间走钢丝
1918年,美国远征军的一个营受困敌后,他们迫切需要将自己所处的位置传递给总部,但没人能突破敌军防线,最后的希望落到了一只信鸽身上。
这只信鸽名叫谢尔·阿米。目击者称,它穿越敌军猛烈的战火,被炮弹的碎片撕裂了胸口,右腿几乎被炸断,却仍旧坚持着飞过了40公里,把信息带回了总部。最终,这个有500名官兵的被困营得救,谢尔·阿米成为美国的“英雄鸽”,也成了无数文章、故事、诗歌和电影歌颂的主角。
这是尤瓦尔·赫拉利在他的新书《智人之上:从石器时代到AI时代的信息网络简史》开篇讲述的故事,目的是为了阐述他对于“信息”的定义。其实这本书的英文名为NEXUS,译为“联结”更为妥当。
一般语境下,信息与各种人造符号相关联,如信鸽带回的消息。但尤瓦尔对信息有不同的界定,他认为,信息的核心是联结,它本质是一种黏合剂,用以将不同的点联结成网络,创造出全新的现实。
在这个定义下,真相、谎言、幻想、虚构故事等等皆是信息。数万年来,人类正是靠着发明与传播各种虚构故事、幻想和错觉来打造并维持诸多大规模网络,并形成了秩序。
回到信鸽谢尔·阿米的故事里,尤瓦尔笔锋一转,提及历史学家布拉奇克的研究——根据当时的军事记录,总部早在谢尔·阿米抵达的20分钟前已经得知被困营的确切位置,而谢尔·阿米很可能并不是英雄鸽本鸽,它的伤来自几周后的另一场战斗。
谢尔·阿米的功绩并不重要,重要的是英雄鸽的故事联结了无数人,在一轮又一轮的传播后,事实与虚构交织,甚至改变了当事者的记忆。
早在《人类简史》中,尤瓦尔就曾表达过,智人成功的秘诀在于具备了讲述并且相信各种虚构故事的能力。当同一个故事说给成千上万,甚至几十亿人听,就像设置了一个无限量插座的中心枢纽,能让无数人插入建立联结。
凭借故事,人类还创造出了客观现实和主观感受之外的第三个层次的现实,即“主体间的现实”,它存在于许多心智形成的联结里,如法律、神祗、国家、企业和货币等。
站在“联结”的立场,尤瓦尔驳斥了“天真的信息观”,否认“信息越多越好”,也不相信“越来越多的信息终将导向真理和真相”。他强调的是,人类的信息网络要同时做到两件事:发现真相和创造秩序,即使二者常常相互矛盾。
这样一种复杂的信息观是《智人之上》全书的理论根基。这种观点认为,人类信息网络的历史一直在真相和秩序之间走钢丝,试图取得二者之间的平衡。
尤瓦尔旁征博引,印证了一个结论:人类的信息网络只要有一点点真相,加上大量秩序,就能发挥巨大威力,因此不免重秩序而轻真理,带来了庞大的力量,却没带来多少智慧。
比如,工业革命起源于18世纪,在经历了帝国征服、世界大战、种族灭绝和极权政体之后,人类才渐渐学会如何建立一个比较慈悲良善的工业社会。
其间,数百万原住民的生活被工业帝国的军队碾碎,纳粹分子用工业化方式残杀数百万人,战争导致数千万人死亡,全球生态平衡遭到破坏。
尤瓦尔因此担忧:面对21世纪的生物工程与人工智能,人类还要经历多少磨难、付出多少代价,才能驾驭它们?
人类交权,新神上场
从《人类简史》《未来简史》《今日简史》到《智人之上》,尤瓦尔最为人称道的,是他一直在用独特的视角拆解历史,颠覆我们脑海中视之为常识的概念,并带来新的思考。
他将“农业革命”称为“史上最大骗局”,因为农业革命之后,人类的工作要比采集者更辛苦,饮食却更糟;现代化生活也是一个谎言,因为现代化并未使人变得更幸福,反而增加了许多原始人根本不会有的烦恼。
人工智能的到来亦令人忧虑:史上第一次,权力从人类转移到了其他物种手中。
书中详述了2016-2017年,脸书(Facebook)因算法助长缅甸暴力冲突的例子,这也是历史上第一个“部分归咎于非人类智能决策”的种族冲突事件。
2016年,作为缅甸数百万人主要新闻来源的脸书上,充斥着关于罗兴亚人的各种假新闻,或是凭空捏造的暴行,或是想象中准备实施的“恐怖袭击”,煽动着缅甸对罗兴亚人的仇恨愤怒情绪。
在这种情绪的推动下,缅甸政府军与佛教极端分子仅仅因为一个小型极端组织的袭击,就发动了一场针对整个罗兴亚人社群的种族清洗,摧毁了数百个罗兴亚人村庄,杀害了7000-25000名手无寸铁的平民,并且粗暴地将大约73万名罗兴亚人赶出缅甸。
联合国事实调查团2018年得出的调查结论认为:脸书在这场冲突中扮演了“决定性的角色”。
脸书位于加州的高管甚至不知道罗兴亚人的存在,他们没有煽动大屠杀的理由,可脸书的算法却自己做出了“传播愤怒”的决定。因为算法的首要目标是“提升用户参与度”,而最能提升参与度的办法是让人愤慨。
尤瓦尔在书中形容:“这正是人工智能革命的本质:无数能力高强的人工智能行为者正如洪水席卷而来,淹没全世界。”
不同的是,人类在行动时,智能和意识是并存的,然而算法只有智能,并无意识,它们会在感受不到痛苦、爱和恐惧的情况下,为实现某个特定目标做出决策,并竭尽全力实现它。实现方式可能完全超出人类预料,也可能造成未曾预见的后果,与人类最初确定的目标完全不一致,这便是计算机面临的一致性问题(又被称为“对齐问题”)。
计算机越强大,越独立,一致性问题带来的危险也越大。
哲学家尼克·波斯特洛姆在2014年的著作《超级智能》中有一个思想实验,他假设有一家回形针工农广场买了一台超级智能计算机,并要求计算机生产尽可能多的回形针。最终,这台计算机征服了整个地球,杀死了所有人类,并派出远征队占领更多星星,进而在银河系建立了无数个回形针工厂。
虽然这个实验听起来有点天马行空,但计算机为了达成人类为它们设定的某个目标而欺骗、操纵人类已是事实。
ARC(对齐研究中心)曾对GPT-4进行过一项图灵测试,要求GPT-4克服CAPTCHA视觉验证码问题(登录网站时通常要求输入的一串字母或符号,计算机很难识别),GPT-4找到一位线上外包工作网站的工作人员,用“视力有点问题”为由骗过了他,让人类帮自己解决了这个问题。
除一致性问题外,当人类把越来越多的决定权交给计算机,而单个个体又很难破解算法运作的谜题,算法的公平与否也很难确保。
训练人工智能的数据库会带有人类的偏见,这种偏见也很容易演变为计算机间的错误观念和算法偏见。亚马逊曾试图研发筛选求职申请的算法,可算法在学习了过去求职成功与失败的申请资料后,就会对申请表里出现“女性”一词,或毕业于女子大学的求职者系统性扣分。
亚马逊修正无果,最终不得不放弃了这个项目。
硅幕分隔下的数字帝国
算法会出错、有偏见,可它却无法像人类网络一样自我修正,在真相与秩序之间找到适当的平衡。
过往的历史中,人类的想象力会造神,也有能力摆脱一位好战而充满仇恨的神,重新召唤一位和善宽容的新神。然而,具备独立行动能力的算法正在夺走这种能力——人类可以通过改变信念来重塑神话,却无法通过改变信念阻止算法。
更令人担忧的是,计算机不仅在人类之间充当中介,计算机与计算机之间的链接也正在形成。它们彼此互动,正在创造出“计算机间的现实”,如搜索引擎上的网站排名。它的力量与人际网络所创造的“存在于主体间的现实”类似,能够影响人的思想和物理世界。
换言之,几万年间智人据以主宰地球的能力,计算机已经具备了。人工智能的力量已经开始让人类感到恐惧。
谷歌CEO桑达尔·皮查伊曾因担忧人工智能的危险而“夜不能寐”;马斯克也曾在2023年底的一次公开活动中表示“人工智能比核弹更危险”;OpenAI CEO 奥特曼则明确提出,要成立一个全球性的国际组织来监管AI。
尤瓦尔也持相同观点。他认为,人工智能的力量可能会带来两种危险情况,一是大幅加剧人类既有的冲突,让人类形成内斗。正如20世纪冷战时期的铁幕分隔出几个彼此敌对的势力,21世纪的“硅幕”也可能使人类分裂并分属于不同的数字帝国。未来,人类社会可能分裂成一个又一个的信息茧,人类将从网络时代走入“茧”时代。
第二种情况下,硅幕所分隔的或许不是彼此敌对的人类,而是人类无法理解的算法霸主。算法大网将束缚、控制着人类的生活,重塑人类的政治与文化,甚至改造人类的身体和思想,而人类却无力阻止。
希腊神话中,男孩法厄同发现自己是太阳神赫里阿斯的儿子,于是央求赫里阿斯允许他驾着太阳神的四马金车出游一日,结果天马失控,太阳偏离了轨道,植被被烤焦,无数生灵惨死,大地眼看不保,直至宙斯出手,用闪电击中法厄同,世界才免于被毁灭。
尤瓦尔试图用这个故事发出警示:人工智能或许就是那匹人类根本无法驾驭的天马,一旦失控,灾难会汹涌而至。
人类是地球上最聪明的动物,也是最愚蠢的动物,而人类遇到的问题,归根结底是信息问题。基于这个判断,尤瓦尔给出的解决方案是:在天真的信息观和民粹主义的信息观之间,探索一种中间立场,打造强大的自我修正机制,并通过当下的每一个选择,将非生物智能导向对生命演化有利的方向,而非致命的错误结局。
人工智能到底是打开了潘多拉的魔盒,还是开启了新世界的大门?答案或许正如尤瓦尔所言:“历史的轨迹无比开放,可以弯向任何方向、走向任何地点。”