人工智能的未来:,“慈爱的机器”还是“交际的工具”*

来源:优秀文章 发布时间:2022-12-07 点击:

沃尔夫冈·霍夫基希纳著, 邬天启译

(1.奥地利全球可持续信息社会研究所,奥地利 维也纳 151220;

2.西安交通大学 人文社会科学学院,陕西 西安 710049)

1967年,美国作家理查德·布劳提根在任职于加州理工学院时,出版了《一切都被慈爱的机器注视着》的诗集。在他的想象中:“在一个被控制的生态环境下……一个人类不用劳动的世界……一个回归自然的状态……回归到我们的动物本性……每一个人类的兄弟姐妹……都时刻被慈爱的机器所注视着。”[1]这是一种技术乌托邦式的未来幻想,一种仁慈的技术统治维护着全面的和谐。

1973年,在嬉皮士运动和学生起义(1)20世纪60年代末欧美国家学生运动。的余波下,奥地利出生的作家伊凡·伊里奇出版了《交际的工具》一书。他当时身兼教区神父、大学校长和自然科学、技术及社会科学领域教授(宾夕法尼亚州立大学),并且经常往返于墨西哥、美国和德国之间。在该书中他提出:“人类生活的多维平衡概念,可以作为评价人与其工具关系的框架。在这种平衡的每一个维度中,都有可能确定一种自然尺度。”[2]ⅹ“一旦认识到这些限制,就有可能明确人、工具和一个新的集体之间的三元关系。在这样一个社会里,现代技术只是服务于政治上相互关联的个人,而不能是管理者,我称之为‘convivial’(交际的)……我选择交际作为一个技术术语,是用来定义一个负责任地、有限地使用工具的现代社会。”[2]ⅹⅱ“交际”一词源于拉丁语,旨在描述一种在日常宴会中主人和客人共同用餐、共同生活的有质量的相处方式,其意思并非“tipsy jollyness”(醉酒后的幽默),而类似于“eutrapelia (or graceful playfulness)”(交谈中的愉悦或优雅的嬉闹)——这里可以追溯到托马斯·阿奎那所阐述的亚里士多德伦理学中的美德之一:“friendship or joyfulness”(友谊或快乐)[2]ⅹⅲ。这种对未来的想象也勾勒出了一个平衡的社会,但它颠倒了(前一种设想)影响的顺序:一个交际性的社会为交际行为提供了相关的技术。

这两种选择都对文化和文明的未来发展持乐观态度。这里要讨论的问题是:在这两种假想中,哪一种更倾向于描述未来社会中令人满意的人工智能应用——慈爱的机器还是交际的工具?哪一个更现实,哪一个更理想?

德国文学和媒体研究专家罗伯特·西曼诺夫斯基支持第一种选择。2018年,他出版了两部文集,经过大幅扩展和修订后,构成了2020年出版的德文著作——《死亡算法和其他数字难题》的前两章。死亡算法是在即将发生事故的情况下引导自动驾驶汽车进入选择目标的程序。西曼诺夫斯基严谨地展示了在根据功利主义、结果主义或义务论伦理的编程工具的基础上无法解决的一些难点和悖论,因为没有任何一个程序能够满足一个为所有人都能够接受的普遍规则。

在这种情况下,西曼诺夫斯基引用了另一个例子——德国作家费迪南德·冯·施拉奇所创作的戏剧《恐怖》。在这出戏剧中,剧院中或坐在电视机前的观众需要对一个虚构的德国军事少校进行审判,该少校为了拯救慕尼黑一运动场中7万人的生命,在未经授权的情况下,击落了一架被恐怖分子控制的载有164名乘客的民用飞机。大多数观众都投票赞成被告梅杰(Major虚拟主人公)少校应该被无罪释放。从2015年10月到2020年1月,在2 472名现场观众中有63%投赞成票,2016年10月18日,在德国、奥地利和瑞士电视台的电视观众中有87%投赞成票[3]19-20。但这违反了德意志联邦共和国的宪法,该宪法禁止用一个伤亡数字抵消另一个伤亡数字。此外,在不同的文化环境中有不同的多数派,亚洲人的价值观又有所不同。在同一时期,《恐怖》在中国大陆地区的21场演出中,有11场判梅杰少校有罪,在日本的23场演出中,有15场被判有罪,而在中国台湾地区的8场演出中,则全部被判无罪[3]40。这种投票差异也适用于其他例子(如电车困境),这可能与个人主义和集体主义文化之间的差异有关[3]129[4]。

西曼诺夫斯基明白,全球自动驾驶汽车的出现与当前的道德状况并不相容,它需要一个能够普遍适用的解决方案,但是对于西曼诺夫斯基来说,这样的解决方案必须不同于他所能考虑到的普遍伦理。因此,他认为人工智能(AI)是一种解决方案——不是弱人工智能,而是强人工智能。他认为,深度学习可能使强大的人工智能不仅能遵循人类智能的决定,还能独立于人类智能所作出的决定。因此,强人工智能可能会作出人类智能在既得利益相互冲突之下无法作出的决定,强人工智能可能对特殊主义不感兴趣,并能中立地监督人类履行它所作出的决定。通过这样的机制——这是西曼诺夫斯基所希望的——强人工智能甚至能够帮助到人类自身的生存。

然而,西曼诺夫斯基并不明白,强人工智能捍卫者的愿望并没有得到证实,也不会得到实现,而什么是能够实现的——不管这些愿望是什么——只会危及我们人类在地球上的进一步发展。为什么呢?这不是因为人类需要担心人工智能会变成一个邪恶的而不是仁慈的东西,而是因为人工智能技术原则上不具备邪恶和仁慈的能力。人工智能可以侵入人类的自主性,以致达到一种无法容忍的程度。

在工业化过程中,工具得到了改进,从而会生产出不再依赖于风、水或动物能量的、介于工作对象和工作者之间的机器。在信息化的过程中,机器被电脑化,机器人与工作者之间产生的差距更大了,因为它们被赋予人类思维的某些功能。正如卡尔·马克思所预见的那样,自动化可以导致一种“我们不需要劳动”的社会状态,但自动化不一定会带来自主性。自主性是一种从人类和社会领域借鉴来的术语,并强加于机器,就好像机器也和人一样。用工程师的话说,机器人的自主性意味着机器人也能做出决定。如果这是真的,则意味着人类的思维功能将被机器人接管,而人类的某些思维功能将会被剥夺:要么是机器人做出决定,要么是人类做出决定。但按照这样的逻辑,事实情况便不同了:没有机器人能够真正做出决定。决定是一种判决,是对理由进行深思熟虑的结果,而这些理由并不妨碍判决。判决是一种基于必要前提的行为,但它并不像从前提中得出结论那样是从逻辑上推导而来的。还有更多的判断属于涌现行为。涌现是指与它所涌现出来的事物相比,涌现出的事物具有另一种(一种新的)品质。没有机器、自动机或所谓的自主技术系统能够产生涌现,因为所有潜在的信息过程最终都是确定性机制。所以,工程师们在机器的状态下所声称的决策,实际上是机械确定性的产物,而不是类似于自我思考的产物。此外,考虑到现代机器的复杂性,它们运算的产物(过程、逻辑和结果)已经变得不可预测,甚至是无法解释(可追溯)的,因此被工程师错误地称为涌现,尽管算法过程的每一步都遵循一个确定的规则。

这就是为什么西曼诺夫斯基对强人工智能拯救人类的信念注定要落空的原因。所谓强人工智能的决策将是随机且不恰当的。人工智能无法处理个人自身的问题,它不能作为施控者,而更像个受控者[5];
它不是一个自组织的系统,而是异性组织和外部组织的系统。IEEE自主与智能系统(A/IS)伦理全球倡议发布了一份关于伦理一致设计的全面文件,参考了卡普罗和霍夫基希纳(作者本人)两篇论文的意见[5]。文件中提道:“在理解人与自主智能系统之间的关系时,特别值得关注的是对自主智能系统不加批判地采用拟人化的方法,许多行业和政策制定者现在都在使用这种方法。这种方法错误地模糊了道德施控者和道德受控者之间的区别,或者理解为‘自然的’自组织系统和人工的非自组织设备之间的区别。如上所述,从定义上看,自主智能系统不能像人类或生物一样自主。也就是说,当严格定义时,机器的自主指的是机器如何通过对由法律和规则产生的执行秩序的考虑,在特定的环境中独立地行动和操作。从这个意义上说,自主智能系统可以被定义为自主的,特别是在遗传算法和进化策略的情况下。然而,试图在自主智能系统中植入真正的道德和情感,从而承担责任,自主便会模糊施控者和受控者之间的区别,并可能鼓励人类在设计自主智能系统和与自主智能系统互动时对机器的拟人化期望。”[6]因为人工智能无论是弱还是强,都不会涌现信息,它不能以一种仁慈的方式行事,无法完全复制人类本身,且与人类当下处理的问题完全脱离。

总之,人工智能不可能是西曼诺夫斯基所寻找的普遍解决方案,因为它不能彻底统一多样性,而多样性正是作为尝试解决进化过程中的内在问题而出现的一个元层次。这里共出现了三个层次,元层次作为第三个层次,代表了个体划分和嵌套之间的利益冲突,超越了其下代表个体的第二层次与代表个体中各部分的第一层次。只有这样一个“第三层次”的出现,才会是一个普遍的(虽然不是绝对的)解决方案。第三层次是技术本身所无法预料的。正是因为这个原因,人工智能的规则将退化为技术官僚独裁的规则,其中一个武断的情况被另一个武断的情况所取代——机器的自动化将导致人类的去自主化。

在奥地利哲学家君特·安德斯看来,这是继哥白尼、达尔文和弗洛伊德之后的又一个“普罗米修斯的耻辱”,是对人类自我意识的第四次打击。安德斯在1956年发表的文集《关于普罗米修斯的耻辱》中首次描写了一个历史上的事例[7]29-95,美国将军道格拉斯·麦克阿瑟声称:“在应对朝鲜战争开始时所提出的措施可能会引发第三次世界大战。……然而,美国关于是否应该冒这样一个风险而做出决定的责任被转移了……转移了美国的决定权……把决定权移交给了机器”,“交给了一个‘电子大脑’”[7]58。“电子大脑”最终选择了反对麦克阿瑟的决定,但安德斯强调的事实是:“如果真的做出了这一决定,那么做出这一决定的过程同时也是人类给自己造成的最具有划时代意义的失败。因为人类从来没有把自己贬低到这样的程度,以至于把关于人类历史进程的决定,甚至是关于这个历史进程是否可能会存在的决定权交给一件非人的东西。”[7]60-61安德斯称这种发展为“所有可能的非人化的极致”[7]44、“傲慢的自暴自弃”和“狂妄的谦卑”[7]49,傲慢是因为人类相信自己有能力建造超人的机器,耻辱是因为为了成为主人,人类必须把自己变成奴隶。

“慈爱的机器”这一表面上和谐的图景不仅遭到了破坏,而且与第二种说法——“交际的工具”形成了鲜明对比。正因为强人工智能永远不会抛弃其反复鼓吹的认知能力,反而会限制人类的自主性,所以人工智能需要被设计得有意义且谨慎,并且需要负责任地加以限制。伊里奇所著《交际的工具》一书的德文名称正是“Selbstbegrenzung”,意思就是“自我限制”。

现在自我限制已经无可反驳地被置于人类议程的首位。地质学家曾提出过一个术语:“人类世”(Anthropocene),来描述我们现在所处的时代。而正如普雷希特所说,我们现在所处的时代更像是一个“货币世”(Monetocene)或者是一个“资本世”(Capitalocene)。物理学家哈拉尔德·莱施也说:“实现利润的利益已经成为了改变我们星球的驱动力,而它却使我们的星球变得更糟。但现在最基本的问题是人类是否能够被拯救。”[8]普雷西特还认为:“要么资本主义将被战胜,要么现代人将自我毁灭。”

自我限制意义上的交际性是社会系统涌现性的特征,可以确定为公共的历史——具体形态的社会关系,即这种关系能够帮助并限制社会行动者通过联合产能共同贡献社会利益,并当消费这种利益时,通过联合产能的努力成为共同的受益者。这种利益是公共利益,作为一种关系利益,它是属于公共的。这是第三层面的探求,从共同行动、互动和行动者的行动中涌现。这种第三层面将行动者相互联系在了一起,让他们同时承担第二层面(改变)和第一层面(自我)的角色。交际性表达了在社会系统下作为公共品对于任何参与者的开放程度,行动者越是限制自私,公共利益就越开放,也包括对他们自己开放。交际性是一个需要实现的愿景,它将“通过公开那些被封闭的公共利益,使社会系统更具有包容性,通过这样做……让民众幸福地生活在一个良好的社会,蓬勃和幸福的个人生活在交际性的社会关系之中”[9]。

尽管数学或生物学等学科已经证明了现代人可能成为一个优秀的超级合作者的种族,但现代人肯定需要进一步的实质性发展:为公共利益而进行的合作仍然是碎片化的。从人类到现代社会的进化史来看,展现出了两个决定性的步骤。第一步,我们的祖先从动物单元体进入社会二元体。在共同觅食的背景下,这些祖先采用了“更复杂的社会合作模式”,这保证了公共商品属于所有行动者。第二步,他们开始了一种齿轮效应,产生了更高层次的复杂合作,直到社会因素在进化中超过了生物因素,社会三元体补充了社会二元体。三元社会建立了第三层面——共同的文化、集体的意向性和客观的道德,从那时起,所有这些都是“个人与他人关于公共利益的关系,即公共利益的具体内容成为了争议和冲突的问题”[10-11]。公共合作模式有两种类型:部落主义与专独主义。

部落主义是在人类社会进化的黎明阶段时所出现的原始变种,形成了相当于集体主义中的“我们”,传统以神话作为基础,社会生活的手段和目的就不会受到质疑。另一种变种起源于部落社会的“我们”转变为他律社会[12]23-91:行动者成为以自我为中心的人,他们变得目光短浅,并没有考虑到自己的行为会对社会系统其他部分产生有害影响,社会系统的结构一直将竞争优先于社会的更高层次,而合作则停留于较低的层次;
私有被认为是最高的利益;
手段和目的是脱钩的,手段是明智的、灵活的,而最终目的仍然是既定的。这个相当个人主义的阶段一直持续到今天,它应该被称为“专独主义”。词源学显示,在古希腊,“Idios”的意思是“个人的领域,私人的,一个人自己的”[13]。在尼尔·柯蒂斯看来,“Idios”也带有“被封闭”的印记。他表达了通过圈取公共或共同拥有的资源来创造私有,在历史上一直是获得私有财产的主要手段的想法[13],所以,用专独这个词来表示一个人只关心个人领域,而不关心公共事务。如今,新自由主义把专独主义带到了极端的地步,交际性越来越受到这种排他的共性的挑战。

然而,“人类社会发展的第三步是可以假设的。可能会有一个从集体意向到普遍共享的转变,也就是说,在全球范围内。这将是向另一个交际性的社会制度的过渡——将三个步骤合一并延伸到整个人类”[10]。这一步不仅完成了人类社会发展的前两个步骤,而且还升华了“部落主义”和“专独主义”。它可以整合个人而不需要强迫他们包容。作为全球的公民,他们将有能力从整个社会制度的角度体现出自己和他人的地位。没有任何片面的意识形态或神话能够掩盖基于现实的、科学且实际的对不同社会发展道路的评估。不仅手段是可变的,而且目的也不再是常量。除非达成共同的一致,否则任何一项决策都不应生效[12]84-85。

人工智能是一种技术,是达到某些目的的一种特殊手段。与任何技术一样——即方法、程序、机制,人工智能的设计也是为了实现社会功能的协调。由于功能化被作为一种达到目的的手段,所以在技术设计时,它需要承担两个方面的责任。首先,对设计的功能性负责:机制是否有效、高效地实现了技术设计的最终目的,即它是否具有功能性?这个问题的关键是事实。其次,也要对设计的意义和社会效用负责:最后做出的机制设计必须是有意义的,也就是说,它是否会促进社会价值进步,是否值得推广,是否符合社会规范,是否与社会规范价值一致,这些都属于道德问题。技术的功能和意义都需要负责任地反映出来。在这个全球性挑战的时代,这一反映意味着任何技术都应支持社会向全球可持续信息社会转型,遵循美好社会的愿景,让人们过上美好的生活,建设共同的利益[10]。根据这一观点,人工智能必须是一种支持人类智能的技术,专注于确保社会进化,免于自我造成的崩溃。总体目标必须由人类决策制定,人工智能可以帮助找寻实施方法、监测目标的实现,并为测量适应性提供理由。因此,人工智能与任何嵌入社交的技术一样,都是技术-社会系统的一部分。“既然人工智能是一种承担行动者智能行为的工具,就不应该给它限制行动者自主性的空间。”[14]正如邬焜所说:“人类应该理性地选择自己进化的方式。”[15]

智能反映了手段与目的的关系,特别是反映了手段的功能。然而,为了能够捕捉到目的的意义,仅有狭义上的人类智能是不够的。全球问题是人为的,需要人类给出解决的办法,而要做到这一点,就需要智慧。因此,社会不仅需要成为一个智能社会,还需要成为一个“智慧社会”,这是西班牙社会学家曼纽尔·卡斯特和其他学者在1997年与欧洲委员会高级别专家组就“人人享有欧洲信息社会”的专题合作时提出的一个术语[16]。他们将智慧定义为“从生活经验、自然科学、伦理和哲学中‘提炼’出来的知识”。虽然新的信息通信技术为经济注入了活力,但“这些新技术对知识的产生或获取并没有产生根本的影响,更不用说对智慧的影响了”。当然,人们希望社会越来越向“智慧社会”转变,科学支持的数据、信息和知识将越来越多地被用来作出明智的决定,以提高人们的生活质量。这种智慧将有助于形成一个可持续发展的社会,考虑到其所有成员的福祉,如同重视物质和经济方面一样,重视生活的社会和文化方面。我们希望,新兴的信息社会将以这样一种方式发展,以推进这种智慧愿景的实现。

到目前为止,这些希望还没有实现,而人工智能似乎也遇到了类似的情况。正如朱利安和娜塔莉在《数字人文主义》一文中所预期的那样,一种新的“数字人文主义”可以为人性化的数字化提供新的动力。数字人文主义可以限制人工智能成为一种交际的工具,机器监视人类的幻想则可以归结为反人道主义。人文主义指的是在交际性的人工智能帮助下达到人类生存和繁荣的目的。

猜你喜欢 机器人工智能人类 机器狗环球时报(2022-07-13)2022-07-13机器狗环球时报(2022-03-14)2022-03-14人类能否一觉到未来?大科技·百科新说(2021年6期)2021-09-12人类第一杀手好孩子画报(2020年5期)2020-06-271100亿个人类的清明意林·全彩Color(2019年6期)2019-07-242019:人工智能商界(2019年12期)2019-01-03人工智能与就业IT经理世界(2018年20期)2018-10-24未来机器城电影(2018年8期)2018-09-21数读人工智能小康(2017年16期)2017-06-07下一幕,人工智能!南风窗(2016年19期)2016-09-21推荐访问:人工智能 慈爱 交际
上一篇:在足球运动中塑造幼儿健康生活素养
下一篇:经脐单孔腹腔镜卵巢巧克力囊肿剥除术联合亮丙瑞林对卵巢功能的影响*

Copyright @ 2013 - 2018 优秀啊教育网 All Rights Reserved

优秀啊教育网 版权所有