关于机器人会如何改变我们的生活耳朵一直都在科幻小说中的主食了几十年。在20世纪40年代,人类和人工智能之间的广泛互动似乎仍然遥遥无期,艾萨克·阿西莫夫(Isaac Asimov)提出了他着名的“机器人三法则”(Three Laws of Robotics),旨在防止机器人伤害我们。
第一个 – “一个机器人可能不会伤害人类,或者通过无所作为,让人类受到伤害” 从机器人通过直接互动,无论是好还是坏的方式来理解人类的理解来看。想想经典的科幻小说:C-3PO和R2-D2与反叛联盟合作,在星球大战中挫败帝国,比如2001年的 HAL 9000 :来自Ex Machina的太空漫游和Ava策划谋杀他们的表面主人。但是这些想象并没有集中在人工智能的更广泛和可能更重要的社会影响上 – 人工智能可能影响我们人类如何相互作用的方式。
从机器人通过直接互动,无论是好还是坏的方式来理解人类的理解来看。想想经典的科幻小说:C-3PO和R2-D2与反叛联盟合作,在星球大战中挫败帝国,比如2001年的 HAL 9000 :来自Ex Machina的太空漫游和Ava策划谋杀他们的表面主人。但是这些想象并没有集中在人工智能的更广泛和可能更重要的社会影响上 – 人工智能可能影响我们人类如何相互作用的方式。
当然,激进的创新已经改变了人类共同生活的方式。5000到10000年前的城市出现意味着较少的游牧存在和较高的人口密度。我们单独和集体进行了调整(例如,我们可能已经进化出对这些新情况更可能发生的感染的抵抗)。最近,包括印刷机,电话和互联网在内的技术的发明彻底改变了我们如何存储和传递信息。
然而,正如这些创新所做的那样,它们并没有改变人类行为的基本方面,这些方面构成了我所谓的“社会套件”:我们已经发展了数十万年的一系列关键能力,包括爱情,友谊,合作和教学。无论人口是城市还是农村,以及它是否使用现代技术,这些特征的基本轮廓在全世界仍然非常一致。
但是,在我们中间添加人工智能可能会更具破坏性。特别是当机器像我们一样看起来和行为并深深地影响我们的生活时,它们可能会改变我们的爱或友善或善良 – 不仅仅是我们与相关机器的直接互动,而是我们与一个机器的互动另一个。
我的实验室在耶鲁大学,在那里我和我的同事一直在探索如何这种影响可能会发挥出了一些实验。其中一个,我们指导一小群人与人形机器人一起在虚拟世界中铺设铁轨。每组由三个人组成,一个小蓝白机器人围坐在一张方桌上,在平板电脑上工作。机器人被编程为偶尔出现错误 – 并承认他们:“对不起,伙计们,我这轮犯了错误,”它声称自己很不错。“我知道这可能很难相信,但机器人也会犯错误。”
事实证明,这个笨拙的忏悔机器人 通过改善人类之间的沟通,帮助团队表现得更好。他们变得更加放松和交谈,安慰那些经常绊倒和大笑的小组成员。与那些机器人只做出平淡无奇的陈述的对照组相比,具有忏悔机器人的团体能够更好地进行协作。
在另一个虚拟实验中,我们将4,000个人类受试者分成大约20个组,并在组内分配每个人“朋友”; 这些友谊形成了一个社交网络。然后为这些小组分配一项任务:每个人必须选择三种颜色中的一种,但没有个人的颜色可以与社交网络中他或她指定的朋友的颜色相匹配。受试者不知道,一些团体包含一些被编程为偶尔会出错的机器人。与这些机器人直接相关的人类变得更加灵活,并且倾向于避免陷入可能对某个人有效的解决方案,而不是整个群体。更重要的是,由此产生的灵活性遍布整个网络,甚至可以覆盖那些与机器人没有直接联系的人。作为结果,机器人帮助人类自助。
这两项研究都表明,在我称之为“混合系统” – 人与机器人在社交中相互作用 – 正确的人工智能可以改善人类彼此之间的联系方式。其他调查结果强调了这一点 例如,政治科学家凯文芒格指示特定种类的机器人在人们向其他人在网上发送种族主义言论之后进行干预。他表示,在某些情况下,一个机器人只是提醒肇事者他们的目标是一个人,一个人的感情可能受到伤害,可能会导致该人使用种族主义言论下降超过一个月。
但是,在我们的社交环境中添加AI也会使我们的行为效率降低,道德也不那么简单。在另一个实验中,这个旨在探讨人工智能如何影响“公地悲剧” – 个人以自我为中心的行为可能共同损害他们的共同利益的观念 – 我们给了几千个科目资金用于多轮在线游戏。在每一轮中,受试者被告知他们可以保留他们的钱或者将部分或全部捐赠给他们的邻居。如果他们捐款,我们会匹配它,使他们的邻居收到的钱增加一倍。在游戏初期,三分之二的玩家采取了无私的行为。毕竟,他们意识到在一轮中对邻居的慷慨可能会促使他们的邻居在下一个对他们慷慨,建立互惠的规范。并从邻居那里收钱。在这个实验中,我们发现通过添加一些以自私,搭便车方式行事的机器人(冒充人类玩家),我们可以推动团队行为相似。最终,人类玩家完全停止了合作。因此机器人将一群慷慨的人变成了自私的混蛋。
让我们停下来思考这一发现的含义。合作是我们物种的一个关键特征,对社会生活至关重要。信任和慷慨对于区分成功群体和不成功群体至关重要。如果每个人为了帮助小组而投入和牺牲,每个人都应该受益。然而,当这种行为破裂时,公共物品的概念就会消失,每个人都会受到损害。人工智能可能会有意义地降低我们一起工作的能力这一事实非常令人担忧。
我们所遇到的实验室外如何艾能败坏人伦的真实世界的例子。一项针对2016年美国总统大选前的570万Twitter用户的调查发现,拖钓和恶意俄罗斯账户 – 包括由机器人操作的账户 – 经常以类似于其他非恶意账户的方式转发,特别强烈地影响保守用户。通过利用人类的合作性质和我们彼此教学的兴趣 – 社交套件的两个特征 – 机器人甚至影响了他们没有直接互动的人,帮助分化国家的选民。
简单类型的AI的其他社会影响每天都在我们周围播放。父母们看着他们的孩子在Alexa或Siri这样的数字助理上咆哮粗暴的命令,他们开始担心这种粗鲁会影响孩子们对待别人的方式,或者说孩子与人工智能机器的关系会干扰甚至先发制人,人际关系。谁长大有关AI代替人可能不掌握儿童“的设备连接移情,”谢丽·特克尔,技术和社会的麻省理工学院专家告诉大西洋的亚历克西斯C.马德里加尔不久前,他会后为他的儿子买了一个玩具机器人。
随着数字助理无处不在,我们已经习惯于和他们交谈,好像他们有感情; 去年在这些页面上写道,Judith Shulevitz描述了我们中的一些人是如何开始将他们视为知己,甚至是朋友和治疗师。Shulevitz本人说她向Google智能助理承认她不会告诉她的丈夫。如果我们在与我们的设备密切交谈时变得更加舒适,那么我们的人类婚姻和友谊会发生什么变化?由于商业需要,设计师和程序员通常会创建设备,其响应让我们感觉更好 – 但可能无法帮助我们自我反思或考虑痛苦的事实。随着人工智能渗透到我们的生活中,我们必须面对这样一种可能性:它会阻碍我们的情绪并抑制人与人之间的深层关系
所有这一切都可能最终以一种我们需要将其视为政体的无意识方式改变人类社会。我们是否希望机器影响孩子是否以及如何善待?我们是否希望机器影响成年人的性行为?
英国德蒙福特大学(De Montfort University)的人类学家凯瑟琳理查森(Kathleen Richardson)担心后一个问题。作为反对性机器人运动的负责人 – 是的,性机器人已经足够成为一种早期现象,反对他们的运动并非完全不成熟 – 她警告说,他们将会非人化,并可能导致用户退出真正的亲密关系。我们甚至可能将机器人作为性满足的工具,再到治疗其他人。其他观察家认为机器人可以从根本上改善人类之间的性行为。在他2007年出版的“ 爱与性与机器人”一书中这位反传统的国际象棋大师变身商人David Levy考虑了“具有浪漫吸引力和性欲的机器人”的积极影响。他建议有些人会更喜欢机器人伙伴与人类伙伴(由“已婚”的日本人所证实的预测)去年人工智能全息图)。性机器人不会受到性传播疾病或意外怀孕的影响。他们可以为无耻的实验和实践提供机会 – 从而帮助人类成为“艺术爱好者”。由于这些和其他原因,Levy认为与机器人的性行为将被视为道德的,并且可能在某些情况下被预期。
早在我们大多数人遇到这种亲密的AI难题之前,我们就会遇到更多的日常挑战。毕竟,无人驾驶汽车的时代已经到来。这些车辆有望大大减少困扰人类驾驶员的疲劳和分心,从而防止事故发生。但是他们对人有什么其他影响呢?驾驶是一种非常现代的社会互动,需要高水平的合作和社会协调。我担心无人驾驶汽车通过剥夺我们锻炼这些能力的机会,可能会导致他们的萎缩。
这些车辆不仅会被编程接管驾驶职责,从而篡夺人类做出道德判断的权力(例如,当碰撞不可避免时,哪个行人会被击中),它们也会影响他们与之相关的人类。没有直接接触。例如,驾驶员在一辆以稳定,不变的速度行驶的自动驾驶车辆的情况下驾驶一段时间,可能会减少驾驶的注意力,从而增加了一旦他们搬到仅由人类驾驶员占用的高速公路的一部分时发生事故的可能性。或者,经验可能表明,与完全符合交通法规的自动驾驶车辆一起驾驶实际上可以提高人的表现。
无论哪种方式,我们都会肆无忌惮地释放新形式的人工智能而不首先考虑这种社会溢出效应 – 或外部因素,因为它们经常被称为 – 。我们必须采用与硬件和软件相同的努力和独创性,使自动驾驶汽车能够管理AI对车外人员的潜在连锁反应。毕竟,为了您的利益,我们不仅为了您的利益而且主要是为了您的利益而在您的汽车后部强制制动灯,但是为了您身后的人。
在1985年,艾萨克·阿西莫夫之后四个十年的介绍了他的机器人的法律,他又增加了自己的名单:机器人不应该做任何会伤害人类。但他在如何评估这种伤害方面苦苦挣扎。“人类是一个具体的对象,”他后来写道。“可以估计和判断一个人的受伤情况。人性是一种抽象。“
专注于社会溢出效应可以提供帮助。其他领域的溢出效应导致了民主监督的规则,法律和要求。无论我们是在谈论污染供水的公司,还是在办公楼里散布二手烟的个人,一旦某些人的行为开始影响其他人,社会就可能会介入。由于人工智能对人与人之间互动的影响是紧张而深远的,而且进展迅速而广泛,我们必须系统地调查可能出现的二阶效应,并讨论如何代表共同利益。
已经有各种各样的研究人员和从业人员 – 计算机科学家,工程师,动物学家和社会科学家等 – 正在共同开发“机器行为”领域,希望将我们对人工智能的理解与理论上的理论和技术基础。这个领域并不仅仅将机器人视为人造物体,而是将其视为一类新的社会行动者。
调查很紧急。在不久的将来,AI赋予的机器可以通过编程或独立学习(我们将给予他们的能力)来展示与我们自己相比看起来很奇怪的智力和行为形式。我们需要快速区分那些仅仅是真实威胁我们的行为的奇怪行为。我们最关心的人工智能方面是那些影响人类社会生活核心方面的因素 – 这些特征使我们的物种在数千年中得以生存。
启蒙运动的哲学家托马斯·霍布斯(Thomas Hobbes)认为人类需要一个集体协议来阻止我们变得杂乱无章。他错了。早在我们组建政府之前,进化就为人类提供了一套社会套房,使我们能够和平有效地生活在一起。在人工智能前世界,基因遗传的爱,友谊,合作和教学能力继续帮助我们共同生活。
不幸的是,人类没有时间发展与机器人一样的天生能力。因此,我们必须采取措施确保他们能够与我们一起非破坏性地生活。随着人工智能更深入地影响我们的生活,我们可能还需要一个新的社会契约 – 一个是机器而不是其他人。
本文转载自medium,原文地址