人类与人工智能的“新型契约”
编者按:人工智能持续渗透各大领域,对人们的生活影响越来越大。科学研究表明,机器人能通过机器行为影响人与人之间的互动方式。这种影响可能是正向的,也可能是负向的。因此,当人工智能更全面地渗入人类生活时,我们可能还需要一种新的社会契约——一种人与机器之间的契约,而不是人与人之间的契约,来定义人与机器人共存的方式。本文译自Theatlantic原标题为" How AI Will Rewire Us"的文章,希望对您有所启发。
几十年来,关于机器人如何改变我们生活,一直是科幻小说的热衷主题。20世纪40年代,当人类和人工智能之间的广泛互动似乎还遥不可及的时候,艾萨克·阿西莫夫(Isaac Asimov)就提出了他著名的“机器人三定律”,旨在防止机器人伤害我们。
第一条就是:机器人不能伤害人类,也不得在人类受到伤害时袖手旁观。之所以会有这一条是源于机器人可以通过直接互动对人类产生影响。回想一下那些经典的科幻电影:比如《星球大战》中的C-3PO和R2-D2与叛军联盟合作挫败帝国;或者《2001太空漫游》中的HAL 9000和《机械姬》中的Ava都密谋谋杀他们表面上服从的主人。
但是这些想象并没有集中在人工智能更广泛、也更重要的潜在社会影响上:人工智能可以影响我们人类之间的互动方式。
当然,此前有一些激进的创新已经一再改变了人类生活的方式。大约在5000到10000年前,城市的出现意味着游牧生活的减少,人口密度的增加。对于人类来说,无论是人类还是集体,都适应了城市这种新的生活方式。比如高密度的生活环境容易导致传染病的传播,而人类已经进化出了相应的抵抗力。这些年来,包括印刷、电话和互联网在内的技术发明彻底改变了我们存储和传播信息的方式。
然而,尽管这些创新对人类的生活产生了重大影响,但它们并没有改变人类社交中的基本行为,这些基本行为是我们经过数十万年进化而来的一系列社会能力,包括爱情、友谊、合作和教学。无论是在城市还是农村,无论科技是否发达,这些人类行为的基本因素在世界各地保持着高度的一致。
人工智能的加入可能会对人类社会关系产生破坏性。特别是当机器的外观和行为与我们相似,并深入地渗透到我们生活时,它们可能会改变我们的恋爱或交友的方式。也就是说,机器人的加入不仅会影响人类与机器人的互动,还会影响人与人之间的互动。
耶鲁大学的一个实验室对这一问题进行了探索。在其中一项实验中,研究人员让一小群人与人形机器人一起在虚拟世界中共同进行一项任务:铺设铁轨。每个实验组由三个人和一个蓝白相间的小机器人组成,他们围坐在一张方桌旁,通过平板电脑完成任务。
研究人员将这个机器人设定为偶尔会犯一些错误,而且犯错误时还会调皮地承认错误:“对不起,伙计们,这里我犯错误了。我知道你们可能难以置信,但机器人也会犯错哦。”
结果证明,这个笨拙且懂得忏悔的机器人可以改善人类之间的沟通,从而帮助这个团队表现得更好。有了它们,小组成员变得更放松,更健谈,还会安慰那些容易犯错的组员。对照组的机器人只会冷冰冰地阐述信息,在团队合作方面显得逊色不少。 在另一项虚拟实验中,研究人员将4000名受试者分成20人左右的小组,并在小组内为每个人分配“朋友”,于是形成了一个社交网络。然后,这些小组面临一项任务:每个人必须在三种颜色中选择一种,但每个人选择的颜色都不能与其指定的“朋友”的颜色相同。 在受试者不知情的情况下,研究人员为一些小组分配了一些被设定为偶尔会出错的机器人。实验显示,与这些机器人直接接触的人变得更加灵活,并且会避免只适用于特定个人,但不适用于整个团队的解决方案。更重要的是,由此产生的灵活性会在整个小组中蔓延开来,甚至会影响到那些没有直接与机器进行交互的人。 因此,有这些容易犯错的机器人所在的小组,整体表现总是优于对照组。这表明,机器人有助于人类相互帮助。 这两项研究都表明,在所谓的“混合系统”中,也就是既有人、也有机器人进行社交互动的系统中,正确地部署人工智能可以改善人类彼此之间的关系。其他研究结果也证实了这一点。例如对人们在网上对他人进行谩骂这种情况,政治学家凯文·芒格(Kevin Munger)指示特定种类的机器人进行干预。他发现在某些情况下,机器人只是简单地提醒谩骂者他们攻击的目标是一个感情可能会受到伤害的人,就能使谩骂者在一个多月的时间内减少攻击言论。 但是在我们的社交环境中加入人工智能,也有可能会降低我们的行为效率和道德水准。在另一个实验中,研究人员希望探索人工智能如何影响“公地悲剧”。 “公地悲剧”指的是,每个人的自私行为汇总起来可能对我们的共同利益构成破坏。 在实验中,研究人员给几千名受试者提供资金,供他们在多个回合的网络游戏中使用。在每一轮测试中,受试者都被告知他们可以保留自己的钱,也可以将部分或全部钱捐给邻居。如果他们捐了钱,研究人员也会捐同样的钱给他们的邻居,使他们邻居收到的钱增加一倍。 在游戏初期,三分之二的人表现得都很无私。毕竟,他们知道,在第一轮对邻居慷慨可能会促使邻居在下一轮对他们也慷慨捐赠,从而建立一种互惠准则。 然而,从自私和短期利益来看,最好的结果是不捐给别人钱,等着别人给自己捐钱。在这个实验中,研人员发现在整个受试群体中加入一些假装人类玩家的自私机器人,就可以促使整个群体做出同样的自私行为。最终,人类玩家也完全停止了合作。于是,机器人把一群慷慨大方的人变成了自私自利的小人。 合作是我们人类的一个重要特征,是社会生活必不可少的。信任和慷慨是区分成功和失败群体的关键特征。。如果每个人都愿意为了帮助自己所在的集体而投入和牺牲,那么大家都会受益。然而,当这种行为模型被打破时,公共利益的概念就消失了,每个人都会受到损害。 人工智能可能会极大降低我们合作的能力,这是一件非常值得担忧的事情。 事实上,现在已经有一些真实例子让我们了解人工智能如何破坏真实世界人际关系。一项在2016年美国总统大选前针对570万Twitter用户进行的研究发现,一些俄罗斯帐号(其中有一些由机器人操纵)经常通过跟非恶意帐号相似的方式转发信息,对保守派用户产生的影响尤其明显。利用人类善于合作和好为人师的特征(这也是人类社交属性的两个特征),机器人甚至影响了没有与之直接互动的人,令美国的选举出现两极分化。 而人工智能对社会产生影响的事情每天都在我们身边上演。父母们看着自己的孩子对着Alexa或Siri等数字助理发出粗鲁的命令,开始担心这种粗鲁会渗入孩子对待他人的方式,或者担心孩子与人工智能的关系会干扰甚至取代人际关系。 麻省理工学院技术与社会专家雪莉·特克尔(Sherry Turkle)不久前指出,儿童成长过程中的同伴如果是人工智能,而不是人类,那么他们可能会缺乏同理心。 随着数字助理变得无处不在,我们更习惯于和它们进行交谈,仿佛它们也是有感情的。茱蒂丝·舒勒维茨(Judith Shulevitz)去年曾经阐述过,一些人开始将数字助理视为知己,甚至把它们当做朋友和治疗师。 舒勒维茨说,她自己向谷歌数字助理坦白了一些连丈夫都不会告诉的事情。那么,如果我们觉得在与电子设备密切交谈时感觉更舒服,我们的婚姻和友情会发生什么样的变化呢? 由于商业上的需要,设计师和程序员通常会设计出让我们感觉更好的设备,但这可能无助于我们进行自我反思。随着人工智能不断渗透进我们的生活,我们必须面对这样一种可能性:人工智能会抑制我们的情感,抑制我们与他人的深层联系,导致我们不再那么设身处地为别人着想,甚至变得更加肤浅和自恋。 所有这些都可能以一种意想不到的方式改变人类社会。我们是否希望机器影响孩子们善良的天性?我们是否希望机器会影响成年人的性生活? 英国德蒙特福特大学(De Montfort University)人类学家凯瑟琳·理查森(Kathleen Richardson)就对后一个问题很担心。作为反对性爱机器人运动的主要人物,她警告说,性爱机器人会使人类失去人性,并可能导致用户远离真正的亲密关系。我们甚至可能会从把机器人当作满足性欲的工具,发展到以这种方式对待他人。其他观察家则认为机器人可以从根本上改善人类之间的性行为。 在2007年出版的Love and Sex With Robots一书中,从反传统的国际象棋大师变身商人的大卫·莱维(David Levy)角度揭示了“具有情感吸引力和性诱惑力的机器人”所带来的积极影响。他认为有些人会更喜欢机器人配偶,而非人类伴侣。性爱机器人不会传播性病,也不会让人意外怀孕。它们可以为实践提供各种机会,从而帮助人类成为“性爱大师”。基于此,再考虑其他因素的影响,莱维认为与机器人发生性行为是道德的,在某些情况下甚至是理所当然的。 事实上,早在我们大多数人遇到如此私密的人工智能难题之前,我们还会应对更多日常挑战。毕竟自动驾驶汽车的时代已经来临,无人驾驶车辆承诺将大大减少困扰人类驾驶员的疲劳和分心等问题,从而防止事故的发生。但是它们会不会对人产生什么其他影响呢? 驾驶是一种非常现代的社会互动方式,需要高度合作和社会协调。有人担心,自动驾驶汽车剥夺了人们行使这些能力的机会,可能会导致这种能力的萎缩。 这些车辆不仅将通过编程来接管驾驶职责,从而取代人类做出判断的权力,同时还将影响与它们没有直接接触的人类。例如,当驾驶员以稳定不变的速度与自动驾驶车辆共同行驶一段时间后,可能会精神松懈,注意力涣散。因此,当他们驶入只有人类驾驶员的高速公路后,就更有可能发生事故。另外,经验可能表明,与完全遵守交通法规的自动驾驶车辆一起驾驶,实际上可以提高人类驾驶员的表现。 不管怎样,如果我们不对这些社会溢出效应进行优先考虑,就不能不顾后果地推出新的人工智能形式。我们在管理人工智能对车外人员产生的涟漪效应时,也投入了足够的努力和独创性,就像开发无人驾驶汽车的硬件和软件一样。毕竟要求车后安装刹车灯,不仅是为了车内人员的利益,而且主要是为了车后的其他人。 1985年,在艾萨克·阿西莫夫(Isaac Asimov)提出他的机器人定律大约40年后,他又增加了一条:机器人永远不应该做任何可能伤害人类的事情。但这种“伤害”非常难以评估。 “人是一个具体的对象,”他后来写道,“对一个人的伤害是可以估计和判断的。但人性是一种抽象。” 如果转而关注社会溢出效应,可能会有所帮助。其他领域的溢出效应推动了规则、法律和监督方式的健全。无论是污染水源的公司,还是在办公楼里吸烟的个人,一旦一些人的行为开始影响其他人,社会可能会介入。 由于人工智能对人与人之间互动的影响是如此重大而深远,而且发展速度快、范围广,我们必须系统地研究可能出现的二阶效应,并讨论如何才能代表共同利益对其展开监管。 目前已经有一些研究人员和实践者,比如说计算机科学家、工程师、动物学家和社会科学家等等,他们聚集在一起发展“机器行为”领域,希望将人类对人工智能的理解建立在更坚实的理论和技术基础之上。这个领域并不仅仅将机器人视做人造物体,而是将其视为一种新的社会参与者。 这方面的研究迫在眉睫。在不远的将来,人工智能赋能的机器可能会通过编程或自主学习展现出与人类相比似乎奇怪的智能和行为形式。 我们需要快速区分哪些只是看上去古怪,哪些是真真正正的威胁。人工智能最值得我们关注的是那些会真正影响人类社会生活核心的方面,因为这些核心特征使我们的物种在几千年的时间里得以生存延续。 启蒙哲学家托马斯霍布斯(Thomas Hobbes)认为,人类需要一种集体契约,以防止我们的生活变得杂乱无章。其实他错了,早在人类组建政府之前,人类就进化出了一套社会能力,使人类能够和平共处。在人工智能尚不存在的世界里,祖先遗传给我们的爱情、友谊、合作和教学能力帮助我们共同生活。 不幸的是,人类还没有时间进化出与机器人共生共存的能力。因此,我们必须采取措施,确保他们能够与我们和平共存。当人工智能更全面地渗入人类生活时,我们可能还需要一种新的社会契约——一种人与机器之间的契约,而不是人与人之间的契约。 原文链接:https://www.theatlantic.com/magazine/archive/2019/04/robots-human-relationships/583204/