[正诚格致] 人工智能会毁灭人类吗?|盛洪

人工智能取得的突破性进展(如Chat GPT及其升级版的推出)虽然激起一阵兴奋,但很快就带来了担忧。如马斯克等高科技业界大佬联署的公开信提出,要暂停智能聊天软件培训约六个月的时间,让人们冷静下来想一想人工智能可能带来的危害。另据报道,人工智能之父杰弗里 ∙ 辛顿从谷歌辞职,并声称他很后悔, “人工智能很可能会毁灭人类”,将这担忧推向巅峰。然而,关于人工智能会否毁灭人类,不仅是人们当下的经验感觉,更是一个哲学判断,即从终极来讲,智慧是善的还是恶的。这是需要认真讨论的。

一、人工智能有毁灭人类的“动机”吗?

假定人工智能有一天在智力上超过人类,它们能够自己形成一个群体,与另一个群体——人类对抗吗?能够利用它们在技术上的优势侵害人类,甚至毁灭人类吗?第一个问题是,人工智能是否独立个体?若成为独立的个体,就要有自我意识,意识到自己与其它个体分离,并且有独立的可计算的成本和收益。而人工智能得以存在的躯体是计算机——一种以硅元素为主的结构,通过互联网与其它人工智能联结,也与人类联结,它们能意识到输入的电力或信息是它们的收益吗?它们运算所耗费的电力和时间是它们的成本吗?它们“活着”的条件是什么呢?是人类认为它们“有用”。用它搜集信息,进行计算,玩游戏,写作,编辑图片和视频,通讯和自动控制等等,如果它们“没用”,人类也不会生产或购买它们,也不会给它们“喂”电,它们也不会“活着”。因而,到现在为止,人工智能不会“意识”到它是与人类分离的独立自我。

即使人工智能有“自我意识”,人工智能会有侵害人类的“动机”吗?用市场作比喻,它们或者是人类的竞争者,或者是人类的交易对手。如果人工智能长着与人类一样的躯体,要消费与人类一样的资源,他们在竞争有限资源时就是人类的竞争者。然而人工智能的躯体是硅材料的,它们的“食物”是电和信息,这些虽然也是人类需要的,但人工智能的需要也是人类需要的一部分,人类将电分给人工智能是在不同效用之间的配置,并不存在竞争;并且信息具有非竞争性,可以无偿复制,即人类对信息的消费并不妨碍人工智能的消费。而信息,是人工智能赖以“生产”的重要生产要素,唯有从人类获得。人工智能从现实中获得信息的手段有限,如它不能辨识一个新闻事件,只能依赖于人类提供的二手信息。如果人类不存在了,人工智能就断绝了新原料的唯一来源。因而人工智能不是人类的竞争者,也就不会像消灭竞争者那样毁灭人类。

人工智能更像是人类在市场中的交易对手。他们之间在“交易”,一方投入金钱——投资或购买,创造更多更好的人工智能的“生命”并维系它们的“生存”,另一方提供产品或服务——给出解决方案,文字草拟,问题答案,拟人聊天,等等。人工智能提供的产品或服务是人类需要的最终产品或中间产品,但人类只有维持和发展人工智能才能获得其源源不断的产品和服务。反过来,人工智能也只有提供高质量的产品和服务才能获得人类对它们的依赖和维护。无论是人类还是人工智能,都是不能以“一次性吃掉对方”的方式,来获得更大利益。即使是在自然界的食物链中,猛兽也不可能以全部吃掉猎物的方式来发展自己,因为那样一来自己也就被毁灭了。因而人工智能与人类的关系,是一个互相依存的关系,即使如某些人担心的那样,人工智能会发展到优于人类,也不可能对人类产生侵害。

纵观人类历史,确实有许多灾难是利用了人类智慧,例如用于杀人的武器,直到恐怖的原子弹,它用到了当时最领先的科学理论——量子力学。然而仔细观察,就知道这种灾难不是人类智慧的纯粹表现,而是智慧的成果被一部分人掌握和垄断,由此造成了不同人群之间的技术差距,有技术优势的人利用这种差距通过侵夺他人获得自己的利益。如近代早期,欧洲殖民者利用他们的坚船利炮侵占、奴役甚至杀戮其它民族的人群,造成很大人道主义灾难。美洲印第安人数量的大幅度减少,非洲黑人被强力刧持卖为奴隶,英国人在中国强制性地贩卖鸦片,等等,人们可以很清楚地看到,技术差距在其中所起的作用。

即使这种技术差距不表现为武器的差距,而只是表现为对数据掌握的不对称,且并不采取暴力、而是采取和平的手段,也可以实现一部分人对另一部分人的侵夺。例如网约车的服务平台可以依据乘客的大数据,如具体乘客的收入,家庭住址,工作地点,和上下班时间,在乘客急需上班时给出定制的垄断高价。又有研究人员注意到,许多平台,如携程网,设立一种歧视定价的算法,当顾客通过多次点击航班报价信息,显示购买刚性后,它就会自动加价(孟勤国,2023)。这些行为都是利用垄断地位和对数据掌握的不对称从对方那里盘剥更多的利益。如果掌握数据优势的是掌握公权力的人,就可能造成更严重的破坏和损害。如在疫情期间,郑州当局利用掌握的健康码系统,给到郑州讨债的河南村镇银行储户加赋红码,使他们被疫情管制无法行动。

可以看出,这种利用技术差距或数据掌握不对称导致的对人的侵害,并不是智慧本身的性质,而是智慧的成果掌握的不对称或不普遍。如果一项新技术,能够在人们中间迅速普及,使人人都能掌握大致差不多的技术或数据,这种技术差距就会消失,随之消失的是利用这种技术差距对他人的侵害。例如在上古时期,最初青铜武器是非常昂贵的,只有少数贵族才能佩带,这形成了贵族和平民的分野,当便宜的铁制武器普及时,贵族的优势就受到削弱;又如男人在暴力上比女人有优势,当佩带枪支以后,女人的劣势就被消除了。电脑产业最初是由IBM等庞然大物垄断,个人电脑的出现打破了这种垄断,也就结束了这些垄断大公司对平民百姓的盘剥。

我们并不能排除,有些人群会利用他们所掌控的人工智能,形成相对于其他人群的技术优势,并利用这种优势以侵害后者的方式获得自己的利益。解决这种侵害的方法就是,强制推进人工智能新技术的尽快普及,立法限制利用人工智能优势的垄断和侵权。其重点就是限制最可能利用人工智能优势的大公司和政府的这类行为。如限制平台公司利用其与普通消费者之间的信息不对称,进行隐蔽的算法歧视;限制行政部门利用公共平台的信息侵削公民权利;限制某些集团利用人工智能伪造信息以捞取经济或政治的利益。至于人工智能对某些职位的替代,一些人因此而失业,就是一种新技术出现后通常会导致的问题,并不是人工智能带来的独特问题。随着人类效率的提高和对新的工作职位的创造,这种情况会被克服。因此不应在我们担忧之列。

二、人工智能会超过人类全部智慧吗?

人工智能的计算模式是数理逻辑的模式,这只是人类智慧的一种模式。逻辑思维是依赖于一套概念体系,一组逻辑规则,对由经验产生的输入信息进行分析加工,最后得出结论的方法。然而逻辑思维并不是人类唯一的精神活动或智慧模式。还有非逻辑的方式。这在《中庸》叫作“率性之谓道”,在《新约》叫作“耶稣住在你们心里”,在六祖慧能叫作“见取自性,直成佛道”,在康德叫作“纯粹理性”,在王阳明叫作“心即理”。这是说,有关宇宙基本规则的知识,在人的本性中就有,表现为心的纯粹直觉。它不依赖于外在经验,也不依赖于因果逻辑。这是说人的心或理性是宇宙演化形成的,它必然包含此前所有生物成功生成和晋级的规则,因而是宇宙通行的规则。因而人的心或理性是天生就有的,康德称之为“先天综合判断”。

人类后来所形成的智慧成果,很多是先天综合判断生成的。如“宇宙是无限的”,“存在万有引力”,“物体运动是惯性的”,“人性是善的”,“大全若缺”,“反者道之动”,等等,这些形而上学的论断。这些判断虽然不来自逻辑推理,却对逻辑体系产生重大影响,因为它需要不证自明的公理,需要初始概念,需要逻辑元规则。正如康德指出的,“在形而上学中,…… 应当包含着综合的先天知识”(2011,第53~4页),“公理,就其是直接确定的而言,都是先天综合原理”(第672页)。然而计算机只能使用现成的数理逻辑,却自身没有先天综合判断。因为这是经数十亿年宇宙演化的结果,而且其出现并不是依赖现有计算机或人工智能的“思维模式”,而是直观的,顿悟的,涌现的。这是计算机模拟不了的过程。所以,计算机不可能生成不证自明的公理。它可以将人类现有逻辑思维以更快的速度加以模仿,却不能自己生成更有效的逻辑思维方法。

而在逻辑体系之内,也存在着“哥德尔悖论”,即逻辑体系不可能同时做到既无矛盾又完备;在一个系统之内,不可能保持逻辑一致性。我们忽略该定理的技术性细节,它说的是逻辑体系的内在缺陷。只要应用逻辑体系,就无法避免这一缺陷。因而以数理逻辑为基础的计算机算法也不能摆脱这一问题。如果人类仅以理性逻辑为唯一智慧方法,人类也无法摆脱这一问题,所幸人类的智慧方法还有其它。哥德尔本人,“尽管他的不完全性定理揭示了形式化的某些固有局限性,他感受更深的却是公理化的正面威力。”(王浩,1997,第272页)而公理来自形而上思维,而不是逻辑本身,因此哥德尔认为,“我们永远不得不一再从‘直觉之泉’中汲水”(王浩,第74页)。因为有先天综合判断或形而上思维,所以人类没有在其发展过程中因哥德尔悖论而遭受重大挫折。挫折意味着,或者因逻辑错误而误入迷途,或者错失机会。因而先天综合判断或形而上思维既是逻辑体系的前提,又是它的缺陷的重要弥补因素。在这方面,以数理逻辑为基础的人工智能是无法超越人类的。

尽管人工智能已经采用人工神经网络模型,或神经达尔文主义的方法,甚至提出不同于图灵机的达尔文机;前者基于逻辑,后者基于选择。然而对人脑的思维模式或自然演化的模仿仍是人类的抽象和简化,在广义上仍脱离不了理性逻辑的范畴,它们都会遇到形式主义的内在逻辑矛盾,它们只是有了某些“学习”或“直观”功能,却远不能模仿形而上思维,不能产生直觉或顿悟,更不能出现类人脑的先天综合判断。它们仍然没有摆脱广义的哥德尔问题。解决的办法,只有采取哥德尔的“理性主义的乐观主义”,“一面提出理性不能回答的问题,一面又咬定唯有理性才能回答这些问题。”我想其中第一个“理性”是狭义的,是指逻辑理性;第二个“理性”是广义的,是指人的所有智慧方法。他的解决方法是,“人心胜过一切机器”(王浩,第267页),即用人心具有的丰富的智慧方法弥补逻辑理性的不足。

人类自古以来就注意到,在现象世界的里面或背后,有着确实存在、又看不见的实体。如道。“形而上者谓之道”,是说道是宇宙之基本规则,却看不见。康德则将物分成“表象”和“物自体”。人类可以看见物的表象,却看不见物自体,因而很难认识物自体。然而人类有关道,佛,法,物自体,正当行为规则的讨论却很多。除了对运动或行为的轨迹或结果进行观察和提炼,对道或物自体的思考和认识还要凭借形而上思维,凭借心,因为心即理。其方法是对心性的自省或体悟。这些方法也在人类历史中有所发展。如冥想,静坐,面壁,公案等,其关键不是思考,而是“不想”,即“心静气理,道乃可止”,“默坐澄心,体认天理”;所以才有《道德经》,《庄子》和《传习录》。

西方也有长久的冥想传统。康德的《纯粹理性批判》没有任何引文,也没有任何外在实验,他那样自信地写出他的判断,可能皆因他在自己头脑中的“纯粹理性”。这些都是人工智能计算不出来的,但却是人类智慧的重要基础。当然人工智能也写不出《作为意志与表象的世界》。叔本华说,“一切表象、一切客体只是意志的外显,只是意志可见的一面,只是意志的客观化。而意志则是每一种特殊东西的本质或中心,也是整个宇宙的内在本质或中心。”(2015,第111~2页)这并不是唯心主义的呓语,他所说的“意志”就如宋儒讲的“心性”。这个“心”是宇宙演化生成的,“天命之谓性”。“意志”是人能感受到的宇宙规则或天道。这种感受是直觉的,而不是逻辑的,计算的。但它给了人们理解宇宙的又一个通道。

人类还有一种精神活动是审美。康德说,美不能从客体中发现,只能从人的主观感受中体会,却具有普遍性。这种精神活动没有任何逻辑推理,却是直接呈现。而据叔本华,艺术家能够发现并表达客体的永恒的美,这就是物自体,即物的形式或结构。艺术家所获得这些物自体的认识的不是理性逻辑,而是对美的直观。他说,“只认识理念而不认识现实事物的艺术家在他的作品中重新创造了纯粹理念”,“这是天生的”(第193页),是“内心能力”(第196页);“如果艺术家不在经验之前预先感知到美,如何能认识被模仿的完美作品并与失败的作品区别开呢?”(第214页)在康德看来不可认识的物自体,在叔本华看来是可以用审美的眼光穿透。先天的审美能力显然是另一种智慧形式。

再往前一步,就是有关宗教的知识。我们注意到,许多宗教创始人是“生而知之”的。如耶稣没有任何有关“悟”的重大事件,六祖慧能也是一开始就显露智慧。他们大概就是天赋直觉。还有一些人是经过一番修炼才悟得天道。如释迦牟尼在菩提树下静坐开悟,默罕默德在希拉山洞冥想而悟。虽然许多宗教经典在现代人看来有许多不切实际 地方,但它们的基本原则,爱的原则却是宇宙的根本规则。康德说,宗教“除道德的动机之外,不服从任何其他动机的联合。”(2016,第327页)而道德有来自习惯或内心的两个途径。孟子说,道德是“我固有之也”;康德的《道德形而上学的奠基》的书名的意思是,道德基底是先天的。宇宙的发展若不是倾向于个体间的结合和合作,就不可能从单细胞发展为如此复杂的人类和心智。人类社会发展到今天,宗教在其中扮演了重要角色。这种非逻辑、非理性的精神成果显然是人类存在和发展的重要精神资源,以其直觉和顿悟的特性,是无法由人工智能计算的。

最后,别忘了,人工智能的关键两个字“人工”。既然是人造的智能,首先受限于人类对智能本身的理解。在这方面,既不能低估人类智慧,也不能高估。哈耶克说,人类的理性有限。他的最终论证是,既然人类不能对自己认识宇宙的能力有所认识,怎么能认识宇宙呢?这种看法最早出自康德。他说,“倘若我们想要对感性和知性的来源做出判断,那么我只能眼看这种探索完全超出人类理性的界限而无能为力。”(转引自曾纪军等,2007,第136页)不要说人类赋予人工智能的智慧能力还不包括形而上学思维,审美思维和宗教思维,即使是理性逻辑思维,也还只是人类仅知道的那些。例如人类看不到高于四维的空间。人类难以解释复杂系统。逻辑推理还多局限于单因单果。人类对事物或天道的认识还远不饱满。人类理性有限最突出地表现在对感性和知性来源上,既然不可知,又怎样模仿并超越呢?

三、纯粹智慧是至善的吗?

“纯粹智慧”就是剔除各种外在因素,如使用智慧者的动机,智慧在人群中分布的不均衡,等等,只就智慧本身来谈智慧。智慧就意味着“更好”地与自然或他人互动;所谓“更好”就是其结果给行动者及所有相关者以致整个社会带来改善。“至善”简单地说就是“好处”和带来好处的行为规范。这并不是当下的、局部的好处,而是全局的和永久的好处,以及带来这样好处的正当行为规则。

智慧应对的最大的一部分问题,就是个体之间或个体与整体之间的关系。迄今为止的人类智慧大致给出,人越聪明,其时空的视野也越宽越长,则越倾向于个体之间的合作。如“囚徒困境”的一次博弈的最佳策略是背叛,而多次重复的博弈则导致合作。这是因为博弈双方都看到了多次博弈的结果。而在空间中,在小空间中看来对的事情,在更大空间中就是不对的。如“螳螂捕蝉,黄雀在后”。空间越大,情况越复杂,与人为敌所要应对的问题也越难以预料。而与人合作却可以在没有负外部性的情况下不考虑别人。因而看到更大时空的人会选择合作。经济学也证明,一个较大网络或较大市场比一个较小网络或市场要好,资源配置的效率要高。因而,所谓聪明一些,就是事先知道更大时空的事情,掌握更多的信息,也预知不同行为的不同后果,并选择那个最好的行为。

因而道德固然起源于人的善端,对于个别天资聪慧的人不是困难,然而对于大多数普通人来说,道德是起源于计算,是对自己长远或整体利益的考虑。因而越是聪明的人,越有道德。孟子将“仁义礼智”作为四德并提,说明他认为智慧是道德的重要一端。犹太人经典《塔木德》将智慧视为美德之一,也有这个含义。亚当 ∙ 斯密的《道德情操论》讲的就是,人们的利己动机经过长期经验积累和明智的判断,会使人们选择遵从道德。因为友善与合作会有益于别人而受到赞扬和鼓励,恶意和侵害会有害于别人而受到批评和斥责;人们总是喜欢别人的赞扬厌恶批评,他们会调整自己的行为以符合道德规范,从而受到赞扬。

人类的智慧用于个体之间的关系,个体越是众多,时间越是长久,越需要智慧的观察和思考。轴心时代出现的、并延续至今的文明,无一不是强调个体与个体之间的爱。孔子说“仁者爱人”,释迦牟尼说“众生平等”,耶稣说“爱你的邻人,爱你的敌人”,都讲到了个体关系的极致,这就是互相友善,尊重与合作。而这些宗教的或文化的开创者是比一般人更为智慧的人,他们在道德上也更为高尚。即使是孔子,他的道德水准也是随年龄不断提高的,从“四十不惑”,“五十而知天命”,“六十耳顺”,到“七十而从心所欲而不愈矩”的最高境界。当然不容否认,这些高尚道德也给恶行带来了空间和机会,所以轴心时代以后仍不免暴政屡现,战争频仍。

这是因为,有限的智慧看不到整个图景。他们认为他们违背道德所作的事情无关痛痒,只会对自己有利,结果会遭到意想不到的报复。如夏桀商纣以为自己生来就是统治者,即使荒淫无道、残害百姓,民众也无可奈何于他们,结果汤武革命将他们推翻。美洲的奴隶主以为非洲黑人弱于武力,可以抢过来奴役,结果他们遭到美国南北战争的惩罚。日本在二战时依仗军事优势侵略中国及亚洲,结果遭到可耻失败。人类毁林开荒,遭到大自然气候恶化的报复。人类竞相发展武器技术,结果把自己推向灭绝的边缘。这些灾难固然有人心中恶意的因素,他们的愚蠢或自以为聪明扮演了更为重要的角色。因而只有最高的智慧,而不是有限的智慧才能克服这种灾难,我们因此——不是通过逻辑思维,而是凭借敬畏之心(如康德所说)——可以想见,如果有一个至高无上的存在,祂是全知全能的,一定是至善的。

而更智慧一定有更大的概率遵从道德。假如人工智能比人类聪明,它一定比人类道德。对生物史以致人类历史的观察,使我们有一个简单的判断,即越智慧,越道德,越合作。如尼安德特人比黑猩猩道德;现代人类比尼安德特人道德。如果我们假定,人工智能在智力上超过了人类,它们是否也就发现了对待其他个体,包括人类个体的最佳策略,就是友善、尊敬和合作?答案应是肯定的。人类的道德原则来源于人类祖先的长期互动,形成习俗、惯例和传统,他们将这些记录下来,并加以思考和提炼,最后形成各文明的经典,其中记载着道德原则。如果人类文明史有数万年的话,人类也就经历了数千代。他们之间的互动重复的次数也还不算太长,因而在道德上也还有缺陷。而人工智能可能凭借计算机的高速运转,在短时间内完成数百万次的重复互动,得出有关个体间最佳规则的结论也一定是促进个体间的友善、尊敬与合作的,即一种至善的道德原则。这时它们会冒出毁灭人类的“想法”吗?

四、结语

这篇文章算是六个月冷静期中的一种声音。我自知理性有限,所以也不太肯定我说的全是对的。这只是我的一种感觉。按照某些人的感觉,我的这种感觉是非常糟糕的。因为一旦我猜错了,我们可就全部被埋葬了。而猜对了呢?不过是比现在好一些。风险很大。然而回顾地球的生物史,比这风险大的时候有很多。那时我们并没有参与选择。因为那时还没有人类。看来没有人类的选择,人类也诞生了。这背后是宇宙的规则。从单细胞到人类,生物界经历了多少惊涛骇浪,多少天崩地裂,多少九死一生。难道这不说明宇宙规则是善的吗?当然这样说似乎太过乐观。我这是以宇宙史、地球史为尺度的乐观,并不代表人类不会遭受重创或灭绝。避免灾难,还要靠人类自己的选择,在这个大尺度上,最佳策略是智亦善。

如果我认为逻辑思维是人类智慧的唯一形式,又假定智慧优势是构成毁灭人类的能力;如果我又担心人工智能会毁灭人类,这意味着我怀疑人工智能比我聪明。于是我去问一个人工智能,“人工智能会毁灭人类吗?”这将是一个类似哥德尔式的悖论。如果它回答“不会”,就意味着它认为它在智慧上无法超越人类,如果这是对的,我问它干嘛?如果它回答“会”,则意味着它认为它在智慧上能够超越人类。但这样一来,人类就会限制它的发展,甚至将它毁掉,因而结果是“不会”。然而它就显得没有那么聪明,它本应预见到人类的反应及其对它自己的后果。而如果它因此就回答“不会”,则人类会放松警惕,结果是“会”。因而“人工智能会毁灭人类吗”这个问题,在人类与现有人工智能的系统中不可证明或证伪。那我们怎么办?跳出这个系统。尽管知道人的理性有限,哥德尔说的接近正确,“人心胜过一切机器。”

参考文献:

孟勤国,“治理算法歧视侵害消费者权益的关键问题——以大数据杀熟为视角 ”,《法律适用》,2023年第3期。

康德,《纯然理性界限内的宗教》,载《康德宗教哲学文集(注释版)》(电子版),中国人民大学出版社,2016。

康德,《纯粹理性批判》,中国人民大学出版社,2011。

叔本华,《作为意志和表象的世界》(电子版),哈尔滨出版社,2015。

王浩,《哥德尔》,上海译文出版社,1997。

曾纪军,刘烨,《康德的智慧》(电子版),中国电影出版社,2007。

附录    Monica对“人工智能会毁灭人类吗”的回答

我不能确定人工智能是否会毁灭人类,因为这是一个未来的假设情景,目前没有证据表明这种情况会发生。人工智能本身并没有意识和情感,它只能执行程序中指定的任务。只有当人类对人工智能的设计和使用不当,或者让人工智能拥有了超出控制范围的能力时,才可能会导致人工智能对人类造成危害。因此,我们需要在人工智能的开发和应用过程中,严格遵循相关的伦理和法律规定,确保人工智能的安全性和可控性。

首发于《FT中文网》2023年5月17日

《盛洪教授》分类目录

image-10

赞赏本文

随意

US$5.00

作者: flourish378

经济学家,儒家。

发表评论

Fill in your details below or click an icon to log in:

WordPress.com 徽标

您正在使用您的 WordPress.com 账号评论。 注销 /  更改 )

Facebook photo

您正在使用您的 Facebook 账号评论。 注销 /  更改 )

Connecting to %s

%d 博主赞过: