站点图标 产品经理的人工智能学习库

对话赫拉利与李飞飞:人工智能影响人类的四大问题

好文分享

好文分享

对话赫拉利与李飞飞

最近,在斯坦福大学,两大人工智能专家尤瓦尔·赫拉利和李飞飞展开了一场时长90分钟的对话,对话期间引发的问题要比得到的答案多。这场对话由WIRED的主编尼古拉斯·汤普森主持,当天到场观众多达1705人,整个演讲厅拥挤异常。

对话的目的是讨论人工智能对人类未来的影响。

耶路撒冷希伯来大学的历史学教授赫拉利曾两次荣获波龙斯基创意奖。同时,他也是国际畅销书《人类简史:从动物到上帝》和《未来简史:从智人到神人》的作者。

李飞飞是著名的人工智能研究人员、工程师和计算机科学系教授。她是当今人工智能领域最多产的学者之一,其在深度学习和计算机视觉方面的成果被世界各地的公司和研究团队所采用。李飞飞最为出名的成就是其创建的一个包含1400万幅图像的注释数据集——ImageNet,被广泛应用于计算机视觉领域。

二人谈到了有关人工智能与技术的最为重要的一些话题,包括是否仍可相信人类行为;民主在人工智能时代的模样;人工智能是否最终会破解或增强人类。

李飞飞和赫拉利并未拘束于谈话要点,相反,二人要求我们思考许多重要问题,这些问题描述了人工智能技术对个人的影响,包括自由与选择,以及人工智能对人类世界中法律、经济和政治制度的影响。

以下四大问题试图解决AI对个人的影响:

  1. 反思自由意志:如果你不相信顾客,不相信选民,不相信自己的感受,那么你相信谁?——尤瓦尔·赫拉利
  2. 爱和人工智能的局限:爱是否可被破解?——李飞飞
  3. AI影响下的自我意识:在算法中了解对自己格外重要的事物,生活在这样一个世界,意味着什么?——尤瓦尔·赫拉利
  4. 位于人工智能中心的人类:我们能否以人为中心,重新构建人工智能和技术的教育、研究和对话?——李飞飞

对话结束后,许多在场观众多了一份紧迫感。这些尖锐的问题值得AI从业者、政策制定者以及公众展开思考,也是人工智能需要讨论的重要部分。

需要迅速采取行动。赫拉利警告说,“工程师们不会等待。即使工程师愿意等待,工程师背后的投资者们也不会等待。因此,这意味着我们没有太多时间。”

反思自由意志

如果你不相信顾客,不相信选民,不相信自己的感受,那么你相信谁?

尤瓦尔·赫拉利

对话对自由意志与行为展开探讨,深刻而晦涩,完全避免了肤浅的话题。

质疑自由意志有效性的争论,乍一看,似乎是一种无关的、理论上的努力——这完全超出了工程学科的范畴。实际上,讨论提及的许多挑战都与哲学家们几千年来争论的话题类似。

这次对话提供了一个全新的视角:正如赫拉利所指出的,技术不断发展,人们所密切关注的信念遭到挑战,“不是因为哲学思想,而是由于实用技术。”

在十年的大部分时间里,赫拉利都在批评自由意志和个人行为的核心概念。

他并不是一个人。由于测量神经活动的技术进步,许多神经心理学实验一直在对自由意志展开新的攻击。

这导致许多顶级神经科学家怀疑人们的决策自由。我们只是在脑中制图,从而在机制上影响自身行为,进行信息处理。因此,我们认为自己有意识地作出的决定,实际上只是一种幻觉,可简化为大脑告诉我们要做的事情。

汉娜·克里克洛,普林斯顿著名神经科学家、《命运的科学》一书的作者

虽然科学还在继续发展,但人们自由意志的结果正受到操纵——赫拉利称之为“破解人类”——构成社会中的巨大风险。

某一组织可能会努力“创建一种比我更了解自己的算法,因此可以操纵、增强或者取代我”。

因此,我们的挑战不仅在于要决定如何操纵、增强或替换,而且还要决定谁应首先做出这些决定。

我们可能想知道如何对人类增强的可能性作出选择。

“谁能决定增强的好坏?如果这是一个非常深刻的伦理和哲学问题,哲学家们也已对此讨论了数千年,那你又如何决定增强什么呢?[对这一问题,我们没有答案]‘什么是好的?’我们需要提升哪些优秀品质?”赫拉利问道。

对于我们中的许多人来说,“依靠传统的人文主义思想”是很自然而然的事,这种思想优先考虑个人选择和自由。然而,他警告道:“当某一技术大规模破解人类时,这一切都失效了。”

如果人类行为和自由意志的想法存在争议,那么决定哪种技术可使用是很难确定的。这也影响了我们生活的方方面面:选择做什么、可能买什么、可能去哪里以及投票方式。目前尚不清楚谁应就技术范围作出决定。

由于生物技术(B)、计算能力(C)和数据分析(D)技术的共同发展,这种模棱两可使我们面临一个重大问题。根据赫拉利的说法,这三项技术已经用于Hack Hmans(HH)。

根据数学思维,他将其总结为B * C * D = HH。

借助现代技术,Hacking Humans成为现实的可能性很大。

“此时此刻应在这些问题上进行对话与研究。”李补充说。

如果的确存在操纵,那么如何确保政府、商业和个人自由体系依然合法?

爱与人工智能的局限

爱是否可被破解?

李飞飞

如果人类可被“黑客破解”,行为与信仰被操纵,那么这种微妙控制的局限是什么?

略施小计便可操纵人类,这一点我们供认不讳。例如,走进面包新鲜出炉的面包店,谁会不突然渴望一份肉桂面包呢?但人类行为必须受到限制。

在这一点上,似乎没有人确切地知道操纵的界限。

然而,操纵策略可谓是众所周知。通过媒体以及讲述其故事的电影、文学和电视作品,人们发现一些犯罪分子和骗子采用了这些操纵策略,后者也因此凭借其勇敢受人尊敬,由于残忍而备受指责。

总的来说,人们不相信自已容易被操纵。相反,认为那些被操纵的人是愚蠢的少数人。赫拉利总结说:“最易被操纵的人往往是那些相信自由意志的人,因为他们认为自己无法被操纵。”

为此,将爱作为可操纵的潜在武器,不仅是可行的,而且有据可查。这一做法与浪漫诈骗一样,历史悠久; 许多人都听说过“异地恋的情侣突然需要一笔钱解决紧急状况。”浪漫诈骗是所有诈骗中最“成功”的,去年美国的浪漫诈骗金额高达1.43亿美元。

哥伦比亚心理学家、《信心游戏》一书的作者玛丽亚•科尼科娃提醒我们,操纵“首先是通过情感实现的。”“至少在当下,感性取代理性”,这使我们处于脆弱状态。

毕竟,操纵系统无论是否为人工智能的,都不必通过体验爱,去操纵人类与他人的建立联系与亲密关系的能力。“操纵爱与实际感受不是一回事,”赫拉利解释道。

在未轻视爱的基础上,科学家们对其生物和神经化学成分进行了充分的研究。

个人提供的信息越来越多,对人类身心的了解更为深入,再加上分析大量数据的成本越来越低,导致这种金额较大的骗局可能性更大,因此不容忽视。这些骗局利用着人们的真实情感,包括孤独、孤立以及对与他人建立联系的渴望。

人们都很容易受到这种操纵。科尼科娃提醒道,“我们想要相信被告知的事物”。

很少有人对数据科学和技术进步可能带来的局限拥有明确看法。但李飞飞对此十分乐观,“我确实希望人们对这项技术的认识可以走得非常非常非常远。然而,目前这项技术还处于起步阶段。“但是,继续走下去,危险也会越来越大,如果现状果真如此,那么这种情况将持续多久?

正如李飞飞评论所言:“我觉得你真正揭示了这场潜在危机的紧迫性、重要性以及规模大小。但我认为,面对这种情况,我们需要采取行动。”

将自我意识交给人工智能

当人们对自我的重要认知来自于算法时,这意味着什么?

尤瓦尔·赫拉利

在千禧年,人类已将部分曾由大脑负责的工作转接给了其他工具。由于写作,我们从依靠记忆中释放,可以精细记录。航行的引导工具也由以前的神话和星图变为地图和卫星导航系统。

但是人工智能给我们带来了一个完全的新机遇,那就是如果人类将自我意识也交给科技,那会发生什么呢?

赫拉利讲述了一个有关自我发现的故事。在故事中坦白直到二十多岁他才意识到自己喜欢男生。这一坦白不免让人思考人类花了多少精力来发现自己的盲区。他说道:“在21岁时我才意识到我喜欢的是男孩。然后我开始回顾往昔,我本应该在15岁或者17岁就意识到这一点的。”

人工智能的历史进程中,这个想法几十年以来都十分令人心驰神往。我敢打赌我们制造机器人的原因和创造其他科学艺术一致,都是为了满足对自我的重要认知,证实猜想和怀疑,简而言之,以新角度来检视自我。

著名人工智能历史学家及《机器思维》作者帕梅拉·麦考达克

甚至今天,我们很有可能利用提供的数据来检测各种不同的病症,这些疾病对我们的生活有早期和有意义的影响,可以从抑郁症到癌症。

除了身心健康,我们还想知道大规模分析这些提供的数据会带来什么。毕竟,人类经历中有些方面不受文化、世代和地位的影响。

当分析理论变得越来越先进,并且可提供的数据增加,我们能够从中学习到什么经验,从而与朋友、邻居、世界另一头与我们生活截然不同的人分享。

但仍然存在两大挑战。

就算再精细的算法,仍然有危险;危险还存在于让我们提供自我的信息,尤其质疑和验证都变得困难时。一旦你把某个东西装点为一个算法或者一点人工智能,它就会表现为权威,从而让人难以与之争论。

伦敦大学知名数学家及《你好世界》作者汉娜·弗莱

如果算法预测我们得了癌症,我们可以去验证。但是如果算法告诉我们一些更加模糊的信息,比如说我们很受欢迎,那么我们只好倾向于把它当真因为根本无法验证。由于对于潜在错误算法的错误信任,这反过来会让我们做出不同的决定。

弗莱指出我们可能太过于相信算法以至于推翻个人判断。

她点到了关于一个关于一车游客的故事。这车游客想要从水里开过到达他们的梦想目的地。他们并没有违反行新规则,必须获救。

但要是我们的自我认知被强迫歪斜,谁会来拯救我们呢?

此外,使用数据将他人和我们自己的经验联系起来,对于让算法深入了解我们的个人信息来说,这是一个单独的问题,这些信息可能会与其他参与者(而不是我们)共享。

“如果算法不与您共享信息,但与广告商或是政府共享信息,会发生什么?“赫拉利疑惑道。

即使现在,我们在社交媒体上的信息也被用来提供“相关”的广告,而我们只是刚刚开始了解是谁在为我们付费看这些广告。

赫拉利说:“这是一个很好的例子,因为这已经发生了。”

人工智能已经被用来预测我们是否会辞职或与我们的爱人分手。这两方面都是我们中的许多人不愿让私人朋友(更不用说非个人组织)知道的个人决定。

李怀疑一个算法是否能够以这种方式超越我们自己的自省。“我不太确定!“她说,这给了我们希望,我们可以在还有时间的情况下,深思熟虑地解决其中一些挑战。

“人类从火开始创造的任何技术都是一把双刃剑。它可以改善生活、工作和社会,但它可以带来危险,而人工智能也有这些危险,”她提醒我们。

在人工智能中心的人类

我们能以人为中心,重新审视人工智能和技术的教育、研究和对话吗?

李飞飞

讨论涉及了许多相关学科,为了开始解决我们面临的许多问题,其中李提出了一个巧妙开放的建议,那就是以以人为中心的方式重建人工智能。

在斯坦福大学,李的变革旨在为所有组织提供了一个功能模板,不管规模大小和来源如何。

她建立了斯坦福以人为中心的人工智能研究所,该研究所将来自不同领域的个人聚集在一起,开展新的合作对话。

学院有以下三条宗旨:

  1. 深思熟虑我们希望人工智能成为什么样的;
  2. 鼓励多学科学习;
  3. 着眼于人类的发展壮大。

李飞飞针对此学院说:“我们不是一定要今天找到解决办法,但是我们能让人文主义者、哲学家、历史学家、政治科学家、经济学家、伦理学家、法律学者、神经科学家、心理学家以及其他许多学者参与到下一章人工智能的研究和发展中来。”

这一建议源于研究人员和实践者在获得和保持公众信任的挑战、提供积极的用户体验以及用深思熟虑的政策建议取代人工智能中的恐惧。

在人工智能社区内定义明确的目标是迈向一个我们都能团结在一起的枢纽的重要一步,各个学科之间的交叉越来越具有吸引力。

李飞飞强调说:“这正是为什么现在我们认为人工智能的新篇章需要由人文主义者、社会科学家、商界领袖、民间社会、各国政府共同努力来书写,以便在同一桌上进行多边和合作对话。”

但我们已来到十字路口。

事实上,今天面临的许多伦理问题都是工程师做出决定的结果:“快速行动,打破一切”的精神最终导致了真正的失败。

在技术领域工作可以使其创建者看不到他们所构建的技术的影响。其实有无数无意的结果:举一个例子,大型在线零售商挤掉了小企业,改变了城市的构成。

我们如何平衡对创新的渴望和随之而来的风险呢?当企业成功时,没有考虑到他们的人工智能产品带来的减速,我们应该采取措施来抑制他们的增长吗?

李飞飞对将伦理学纳入软件学科持乐观态度。

“以人为中心的人工智能需要由下一代技术专家编写,这些技术专家上过诸如斯坦福大学政治学教授Rob的《计算机、伦理和公共政策》一课,以思考道德含义、人类福祉。”

无论这个目标多么简单,人工智能社区中的许多人可能会怀疑它是否也是最具挑战性的。

“作为技术专家,我们不可能独自完成这项工作。”李飞飞警告说。

如何才能说服那些从事人工智能工作的技术人员,那些不想关心他们工作的社会效应等模糊主题的人。他们应该关心这些事情吗?而且,这是期望吗?是否需要在整个行业的每一个角色都有一个道德层面?

李飞飞不太确定。

“在这些问题上,应该有伦理学家、哲学家参与进来,并与我们合作。”

尽管在这个行业工作的有远见的人不会忽视它的重要性,但它所需要的范式转换不应被最小化。从历史上看,技术界对任何非技术性或技术性相邻的主题都非常鄙视。那么人工智能社区是会尊重这些新观点还是会将目光转向那些不了解反向传播的人?

当被问及赫拉利的作品是否在李飞飞的教学大纲中时,她甚至开玩笑说:“对不起,并不在。我教核心的深度学习。他的书没有方程式。”

谈话的时机恰到好处,就人工智能在未来几十年对个人的影响提出了重要的新问题。为了减少“黑客”的可能性,在不充分了解操纵可能性的限制的情况下,赫拉利敦促我们集中精力于自我意识:

“所有哲学书籍中最古老的建议就是认识自己。我们从苏格拉底、孔子、佛陀那里听到过:认识你自己。但有一点不同,那就是现在你有了竞争……你在和这些大公司和政府竞争。如果他们比你更了解你自己,比赛就结束了。”

但正如李飞飞建议的那样,需要合作。这项工作正开始在世界各地的许多组织中形成。

赫拉利和李飞飞之间的对话标志着人工智能新类型工作的开始。

她说:“我们打开了人文主义者和技术专家之间的对话,我希望看到更多的对话。”

本文转自公众号 读芯术,原文地址

退出移动版