AI 將如何改寫我們的生活

關於機器人會如何改變我們的生活耳朵一直都在科幻小說中的主食了幾十年。在20世紀40年代,人類和人工智能之間的廣泛互動似乎仍然遙遙無期,艾薩克·阿西莫夫(Isaac Asimov)提出了他着名的“機器人三法則”(Three Laws of Robotics),旨在防止機器人傷害我們。

第一個 – “一個機器人可能不會傷害人類,或者通過無所作為,讓人類受到傷害” 從機器人通過直接互動,無論是好還是壞的方式來理解人類的理解來看。想想經典的科幻小說:C-3PO和R2-D2與反叛聯盟合作,在星球大戰中挫敗帝國,比如2001年的 HAL 9000 來自Ex Machina的太空漫遊和Ava策劃謀殺他們的表面主人。但是這些想象並沒有集中在人工智能的更廣泛和可能更重要的社會影響上 – 人工智能可能影響我們人類如何相互作用的方式。

從機器人通過直接互動,無論是好還是壞的方式來理解人類的理解來看。想想經典的科幻小說:C-3PO和R2-D2與反叛聯盟合作,在星球大戰中挫敗帝國,比如2001年的 HAL 9000 來自Ex Machina的太空漫遊和Ava策劃謀殺他們的表面主人。但是這些想象並沒有集中在人工智能的更廣泛和可能更重要的社會影響上 – 人工智能可能影響我們人類如何相互作用的方式。

當然,激進的創新已經改變了人類共同生活的方式。5000到10000年前的城市出現意味着較少的游牧存在和較高的人口密度。我們單獨和集體進行了調整(例如,我們可能已經進化出對這些新情況更可能發生的感染的抵抗)。最近,包括印刷機,電話和互聯網在內的技術的發明徹底改變了我們如何存儲和傳遞信息。

然而,正如這些創新所做的那樣,它們並沒有改變人類行為的基本方面,這些方面構成了我所謂的“社會套件”:我們已經發展了數十萬年的一系列關鍵能力,包括愛情,友誼,合作和教學。無論人口是城市還是農村,以及它是否使用現代技術,這些特徵的基本輪廓在全世界仍然非常一致。

但是,在我們中間添加人工智能可能會更具破壞性。特別是當機器像我們一樣看起來和行為並深深地影響我們的生活時,它們可能會改變我們的愛或友善或善良 – 不僅僅是我們與相關機器的直接互動,而是我們與一個機器的互動另一個。


我的實驗室在耶魯大學,在那裡我和我的同事一直在探索如何這種影響可能會發揮出了一些實驗。其中一個,我們指導一小群人與人形機器人一起在虛擬世界中鋪設鐵軌。每組由三個人組成,一個小藍白機器人圍坐在一張方桌上,在平板電腦上工作。機器人被編程為偶爾出現錯誤 – 並承認他們:“對不起,夥計們,我這輪犯了錯誤,”它聲稱自己很不錯。“我知道這可能很難相信,但機器人也會犯錯誤。”

事實證明,這個笨拙的懺悔機器人 通過改善人類之間的溝通,幫助團隊表現得更好。他們變得更加放鬆和交談,安慰那些經常絆倒和大笑的小組成員。與那些機器人只做出平淡無奇的陳述的對照組相比,具有懺悔機器人的團體能夠更好地進行協作。

在另一個虛擬實驗中,我們將4,000個人類受試者分成大約20個組,並在組內分配每個人“朋友”; 這些友誼形成了一個社交網絡。然後為這些小組分配一項任務:每個人必須選擇三種顏色中的一種,但沒有個人的顏色可以與社交網絡中他或她指定的朋友的顏色相匹配。受試者不知道,一些團體包含一些被編程為偶爾會出錯的機器人。與這些機器人直接相關的人類變得更加靈活,並且傾向於避免陷入可能對某個人有效的解決方案,而不是整個群體。更重要的是,由此產生的靈活性遍布整個網絡,甚至可以覆蓋那些與機器人沒有直接聯繫的人。作為結果,機器人幫助人類自助。

這兩項研究都表明,在我稱之為“混合系統” – 人與機器人在社交中相互作用 – 正確的人工智能可以改善人類彼此之間的聯繫方式。其他調查結果強調了這一點 例如,政治科學家凱文芒格指示特定種類的機器人在人們向其他人在網上發送種族主義言論之後進行干預。他表示,在某些情況下,一個機器人只是提醒肇事者他們的目標是一個人,一個人的感情可能受到傷害,可能會導致該人使用種族主義言論下降超過一個月。

但是,在我們的社交環境中添加AI也會使我們的行為效率降低,道德也不那麼簡單。在另一個實驗中,這個旨在探討人工智能如何影響“公地悲劇” – 個人以自我為中心的行為可能共同損害他們的共同利益的觀念 – 我們給了幾千個科目資金用於多輪在線遊戲。在每一輪中,受試者被告知他們可以保留他們的錢或者將部分或全部捐贈給他們的鄰居。如果他們捐款,我們會匹配它,使他們的鄰居收到的錢增加一倍。在遊戲初期,三分之二的玩家採取了無私的行為。畢竟,他們意識到在一輪中對鄰居的慷慨可能會促使他們的鄰居在下一個對他們慷慨,建立互惠的規範。從鄰居那裡收錢。在這個實驗中,我們發現通過添加一些以自私,搭便車方式行事的機器人(冒充人類玩家),我們可以推動團隊行為相似。最終,人類玩家完全停止了合作。因此機器人將一群慷慨的人變成了自私的混蛋。

讓我們停下來思考這一發現的含義。合作是我們物種的一個關鍵特徵,對社會生活至關重要。信任和慷慨對於區分成功群體和不成功群體至關重要。如果每個人為了幫助小組而投入和犧牲,每個人都應該受益。然而,當這種行為破裂時,公共物品的概念就會消失,每個人都會受到損害。人工智能可能會有意義地降低我們一起工作的能力這一事實非常令人擔憂。


我們所遇到的實驗室外如何艾能敗壞人倫的真實世界的例子。一項針對2016年美國總統大選前的570萬Twitter用戶的調查發現,拖釣和惡意俄羅斯賬戶 – 包括由機器人操作的賬戶 – 經常以類似於其他非惡意賬戶的方式轉發,特彆強烈地影響保守用戶。通過利用人類的合作性質和我們彼此教學的興趣 – 社交套件的兩個特徵 – 機器人甚至影響了他們沒有直接互動的人,幫助分化國家的選民。

簡單類型的AI的其他社會影響每天都在我們周圍播放。父母們看着他們的孩子在Alexa或Siri這樣的數字助理上咆哮粗暴的命令,他們開始擔心這種粗魯會影響孩子們對待別人的方式,或者說孩子與人工智能機器的關係會干擾甚至先發制人,人際關係。誰長大有關AI代替人可能不掌握兒童“的設備連接移情,”謝麗·特克爾,技術和社會的麻省理工學院專家告訴大西洋的亞歷克西斯C.馬德里加爾不久前,他會後為他的兒子買了一個玩具機器人。

隨着數字助理無處不在,我們已經習慣於和他們交談,好像他們有感情; 去年在這些頁面上寫道,Judith Shulevitz描述了我們中的一些人是如何開始將他們視為知己,甚至是朋友和治療師。Shulevitz本人說她向Google智能助理承認她不會告訴她的丈夫。如果我們在與我們的設備密切交談時變得更加舒適,那麼我們的人類婚姻和友誼會發生什麼變化?由於商業需要,設計師和程序員通常會創建設備,其響應讓我們感覺更好 – 但可能無法幫助我們自我反思或考慮痛苦的事實。隨着人工智能滲透到我們的生活中,我們必須面對這樣一種可能性:它會阻礙我們的情緒並抑制人與人之間的深層關係

所有這一切都可能最終以一種我們需要將其視為政體的無意識方式改變人類社會。我們是否希望機器影響孩子是否以及如何善待?我們是否希望機器影響成年人的性行為?

英國德蒙福特大學(De Montfort University)的人類學家凱瑟琳理查森(Kathleen Richardson)擔心後一個問題。作為反對性機器人運動的負責人 – 是的,性機器人已經足夠成為一種早期現象,反對他們的運動並非完全不成熟 – 她警告說,他們將會非人化,並可能導致用戶退出真正的親密關係。我們甚至可能將機器人作為性滿足的工具,再到治療其他人。其他觀察家認為機器人可以從根本上改善人類之間的性行為。在他2007年出版的“ 愛與性與機器人”一書中這位反傳統的國際象棋大師變身商人David Levy考慮了“具有浪漫吸引力和性慾的機器人”的積極影響。他建議有些人會更喜歡機器人夥伴與人類夥伴(由“已婚”的日本人所證實的預測)去年人工智能全息圖)。性機器人不會受到性傳播疾病或意外懷孕的影響。他們可以為無恥的實驗和實踐提供機會 – 從而幫助人類成為“藝術愛好者”。由於這些和其他原因,Levy認為與機器人的性行為將被視為道德的,並且可能在某些情況下被預期。

早在我們大多數人遇到這種親密的AI難題之前,我們就會遇到更多的日常挑戰。畢竟,無人駕駛汽車的時代已經到來。這些車輛有望大大減少困擾人類駕駛員的疲勞和分心,從而防止事故發生。但是他們對人有什麼其他影響呢?駕駛是一種非常現代的社會互動,需要高水平的合作和社會協調。我擔心無人駕駛汽車通過剝奪我們鍛煉這些能力的機會,可能會導致他們的萎縮。

這些車輛不僅會被編程接管駕駛職責,從而篡奪人類做出道德判斷的權力(例如,當碰撞不可避免時,哪個行人會被擊中),它們也會影響他們與之相關的人類。沒有直接接觸。例如,駕駛員在一輛以穩定,不變的速度行駛的自動駕駛車輛的情況下駕駛一段時間,可能會減少駕駛的注意力,從而增加了一旦他們搬到僅由人類駕駛員佔用的高速公路的一部分時發生事故的可能性。或者,經驗可能表明,與完全符合交通法規的自動駕駛車輛一起駕駛實際上可以提高人的表現。

無論哪種方式,我們都會肆無忌憚地釋放新形式的人工智能而不首先考慮這種社會溢出效應 – 或外部因素,因為它們經常被稱為 – 。我們必須採用與硬件和軟件相同的努力和獨創性,使自動駕駛汽車能夠管理AI對車外人員的潛在連鎖反應。畢竟,為了您的利益,我們不僅為了您的利益而且主要是為了您的利益而在您的汽車後部強制制動燈,但是為了您身後的人。


在1985年,艾薩克·阿西莫夫之後四個十年的介紹了他的機器人的法律,他又增加了自己的名單:機器人不應該做任何會傷害人類。但他在如何評估這種傷害方面苦苦掙扎。“人類是一個具體的對象,”他後來寫道。“可以估計和判斷一個人的受傷情況。人性是一種抽象。“

專註於社會溢出效應可以提供幫助。其他領域的溢出效應導致了民主監督的規則,法律和要求。無論我們是在談論污染供水的公司,還是在辦公樓里散布二手煙的個人,一旦某些人的行為開始影響其他人,社會就可能會介入。由於人工智能對人與人之間互動的影響是緊張而深遠的,而且進展迅速而廣泛,我們必須系統地調查可能出現的二階效應,並討論如何代表共同利益。

已經有各種各樣的研究人員和從業人員 – 計算機科學家,工程師,動物學家和社會科學家等 – 正在共同開發“機器行為”領域,希望將我們對人工智能的理解與理論上的理論和技術基礎。這個領域並不僅僅將機器人視為人造物體,而是將其視為一類新的社會行動者。

調查很緊急。在不久的將來,AI賦予的機器可以通過編程或獨立學習(我們將給予他們的能力)來展示與我們自己相比看起來很奇怪的智力和行為形式。我們需要快速區分那些僅僅是真實威脅我們的行為的奇怪行為。我們最關心的人工智能方面是那些影響人類社會生活核心方面的因素 – 這些特徵使我們的物種在數千年中得以生存。

啟蒙運動的哲學家托馬斯·霍布斯(Thomas Hobbes)認為人類需要一個集體協議來阻止我們變得雜亂無章。他錯了。早在我們組建政府之前,進化就為人類提供了一套社會套房,使我們能夠和平有效地生活在一起。在人工智能前世界,基因遺傳的愛,友誼,合作和教學能力繼續幫助我們共同生活。

不幸的是,人類沒有時間發展與機器人一樣的天生能力。因此,我們必須採取措施確保他們能夠與我們一起非破壞性地生活。隨着人工智能更深入地影響我們的生活,我們可能還需要一個新的社會契約 – 一個是機器而不是其他人。

本文轉載自medium,原文地址