對話赫拉利與李飛飛

最近,在斯坦福大學,兩大人工智能專家尤瓦爾·赫拉利和李飛飛展開了一場時長90分鐘的對話,對話期間引發的問題要比得到的答案多。這場對話由WIRED的主編尼古拉斯·湯普森主持,當天到場觀眾多達1705人,整個演講廳擁擠異常。

對話的目的是討論人工智能對人類未來的影響。

耶路撒冷希伯來大學的歷史學教授赫拉利曾兩次榮獲波龍斯基創意獎。同時,他也是國際暢銷書《人類簡史:從動物到上帝》和《未來簡史:從智人到神人》的作者。

李飛飛是著名的人工智能研究人員、工程師和計算機科學系教授。她是當今人工智能領域最多產的學者之一,其在深度學習和計算機視覺方面的成果被世界各地的公司和研究團隊所採用。李飛飛最為出名的成就是其創建的一個包含1400萬幅圖像的注釋數據集——ImageNet,被廣泛應用於計算機視覺領域。

二人談到了有關人工智能與技術的最為重要的一些話題,包括是否仍可相信人類行為;民主在人工智能時代的模樣;人工智能是否最終會破解或增強人類。

李飛飛和赫拉利並未拘束於談話要點,相反,二人要求我們思考許多重要問題,這些問題描述了人工智能技術對個人的影響,包括自由與選擇,以及人工智能對人類世界中法律、經濟和政治制度的影響。

以下四大問題試圖解決AI對個人的影響:

  1. 反思自由意志:如果你不相信顧客,不相信選民,不相信自己的感受,那麼你相信誰?——尤瓦爾·赫拉利
  2. 愛和人工智能的局限:愛是否可被破解?——李飛飛
  3. AI影響下的自我意識:在算法中了解對自己格外重要的事物,生活在這樣一個世界,意味着什麼?——尤瓦爾·赫拉利
  4. 位於人工智能中心的人類:我們能否以人為中心,重新構建人工智能和技術的教育、研究和對話?——李飛飛

對話結束後,許多在場觀眾多了一份緊迫感。這些尖銳的問題值得AI從業者、政策制定者以及公眾展開思考,也是人工智能需要討論的重要部分。

需要迅速採取行動。赫拉利警告說,「工程師們不會等待。即使工程師願意等待,工程師背後的投資者們也不會等待。因此,這意味着我們沒有太多時間。」

反思自由意志

反思自由意志

如果你不相信顧客,不相信選民,不相信自己的感受,那麼你相信誰?

尤瓦爾·赫拉利

對話對自由意志與行為展開探討,深刻而晦澀,完全避免了膚淺的話題。

質疑自由意志有效性的爭論,乍一看,似乎是一種無關的、理論上的努力——這完全超出了工程學科的範疇。實際上,討論提及的許多挑戰都與哲學家們幾千年來爭論的話題類似。

這次對話提供了一個全新的視角:正如赫拉利所指出的,技術不斷發展,人們所密切關注的信念遭到挑戰,「不是因為哲學思想,而是由於實用技術。」

在十年的大部分時間裏,赫拉利都在批評自由意志和個人行為的核心概念。

他並不是一個人。由於測量神經活動的技術進步,許多神經心理學實驗一直在對自由意志展開新的攻擊。

這導致許多頂級神經科學家懷疑人們的決策自由。我們只是在腦中製圖,從而在機制上影響自身行為,進行信息處理。因此,我們認為自己有意識地作出的決定,實際上只是一種幻覺,可簡化為大腦告訴我們要做的事情。

漢娜·克里克洛,普林斯頓著名神經科學家、《命運的科學》一書的作者

雖然科學還在繼續發展,但人們自由意志的結果正受到操縱——赫拉利稱之為「破解人類」——構成社會中的巨大風險。

某一組織可能會努力「創建一種比我更了解自己的算法,因此可以操縱、增強或者取代我」。

因此,我們的挑戰不僅在於要決定如何操縱、增強或替換,而且還要決定誰應首先做出這些決定。

我們可能想知道如何對人類增強的可能性作出選擇。

「誰能決定增強的好壞?如果這是一個非常深刻的倫理和哲學問題,哲學家們也已對此討論了數千年,那你又如何決定增強什麼呢?[對這一問題,我們沒有答案]『什麼是好的?』我們需要提升哪些優秀品質?」赫拉利問道。

對於我們中的許多人來說,「依靠傳統的人文主義思想」是很自然而然的事,這種思想優先考慮個人選擇和自由。然而,他警告道:「當某一技術大規模破解人類時,這一切都失效了。」

如果人類行為和自由意志的想法存在爭議,那麼決定哪種技術可使用是很難確定的。這也影響了我們生活的方方面面:選擇做什麼、可能買什麼、可能去哪裡以及投票方式。目前尚不清楚誰應就技術範圍作出決定。

由於生物技術(B)、計算能力(C)和數據分析(D)技術的共同發展,這種模稜兩可使我們面臨一個重大問題。根據赫拉利的說法,這三項技術已經用於Hack Hmans(HH)。

根據數學思維,他將其總結為B * C * D = HH。

藉助現代技術,Hacking Humans成為現實的可能性很大。

「此時此刻應在這些問題上進行對話與研究。」李補充說。

如果的確存在操縱,那麼如何確保政府、商業和個人自由體系依然合法?

愛與人工智能的局限

愛與人工智能的局限

愛是否可被破解?

李飛飛

如果人類可被「黑客破解」,行為與信仰被操縱,那麼這種微妙控制的局限是什麼?

略施小計便可操縱人類,這一點我們供認不諱。例如,走進麵包新鮮出爐的麵包店,誰會不突然渴望一份肉桂麵包呢?但人類行為必須受到限制。

在這一點上,似乎沒有人確切地知道操縱的界限。

然而,操縱策略可謂是眾所周知。通過媒體以及講述其故事的電影、文學和電視作品,人們發現一些犯罪分子和騙子採用了這些操縱策略,後者也因此憑藉其勇敢受人尊敬,由於殘忍而備受指責。

總的來說,人們不相信自已容易被操縱。相反,認為那些被操縱的人是愚蠢的少數人。赫拉利總結說:「最易被操縱的人往往是那些相信自由意志的人,因為他們認為自己無法被操縱。」

為此,將愛作為可操縱的潛在武器,不僅是可行的,而且有據可查。這一做法與浪漫詐騙一樣,歷史悠久; 許多人都聽說過「異地戀的情侶突然需要一筆錢解決緊急狀況。」浪漫詐騙是所有詐騙中最「成功」的,去年美國的浪漫詐騙金額高達1.43億美元。

哥倫比亞心理學家、《信心遊戲》一書的作者瑪麗亞•科尼科娃提醒我們,操縱「首先是通過情感實現的。」「至少在當下,感性取代理性」,這使我們處於脆弱狀態。

畢竟,操縱系統無論是否為人工智能的,都不必通過體驗愛,去操縱人類與他人的建立聯繫與親密關係的能力。「操縱愛與實際感受不是一回事,」赫拉利解釋道。

在未輕視愛的基礎上,科學家們對其生物和神經化學成分進行了充分的研究。

個人提供的信息越來越多,對人類身心的了解更為深入,再加上分析大量數據的成本越來越低,導致這種金額較大的騙局可能性更大,因此不容忽視。這些騙局利用着人們的真實情感,包括孤獨、孤立以及對與他人建立聯繫的渴望。

人們都很容易受到這種操縱。科尼科娃提醒道,「我們想要相信被告知的事物」。

很少有人對數據科學和技術進步可能帶來的局限擁有明確看法。但李飛飛對此十分樂觀,「我確實希望人們對這項技術的認識可以走得非常非常非常遠。然而,目前這項技術還處於起步階段。「但是,繼續走下去,危險也會越來越大,如果現狀果真如此,那麼這種情況將持續多久?

正如李飛飛評論所言:「我覺得你真正揭示了這場潛在危機的緊迫性、重要性以及規模大小。但我認為,面對這種情況,我們需要採取行動。」

將自我意識交給人工智能

將自我意識交給人工智能

當人們對自我的重要認知來自於算法時,這意味着什麼?

尤瓦爾·赫拉利

在千禧年,人類已將部分曾由大腦負責的工作轉接給了其他工具。由於寫作,我們從依靠記憶中釋放,可以精細記錄。航行的引導工具也由以前的神話和星圖變為地圖和衛星導航系統。

但是人工智能給我們帶來了一個完全的新機遇,那就是如果人類將自我意識也交給科技,那會發生什麼呢?

赫拉利講述了一個有關自我發現的故事。在故事中坦白直到二十多歲他才意識到自己喜歡男生。這一坦白不免讓人思考人類花了多少精力來發現自己的盲區。他說道:「在21歲時我才意識到我喜歡的是男孩。然後我開始回顧往昔,我本應該在15歲或者17歲就意識到這一點的。」

人工智能的歷史進程中,這個想法幾十年以來都十分令人心馳神往。我敢打賭我們製造機械人的原因和創造其他科學藝術一致,都是為了滿足對自我的重要認知,證實猜想和懷疑,簡而言之,以新角度來檢視自我。

著名人工智能歷史學家及《機器思維》作者帕梅拉·麥考達克

甚至今天,我們很有可能利用提供的數據來檢測各種不同的病症,這些疾病對我們的生活有早期和有意義的影響,可以從抑鬱症到癌症。

除了身心健康,我們還想知道大規模分析這些提供的數據會帶來什麼。畢竟,人類經歷中有些方面不受文化、世代和地位的影響。

當分析理論變得越來越先進,並且可提供的數據增加,我們能夠從中學習到什麼經驗,從而與朋友、鄰居、世界另一頭與我們生活截然不同的人分享。

但仍然存在兩大挑戰。

就算再精細的算法,仍然有危險;危險還存在於讓我們提供自我的信息,尤其質疑和驗證都變得困難時。一旦你把某個東西裝點為一個算法或者一點人工智能,它就會表現為權威,從而讓人難以與之爭論。

倫敦大學知名數學家及《你好世界》作者漢娜·弗萊

如果算法預測我們得了癌症,我們可以去驗證。但是如果算法告訴我們一些更加模糊的信息,比如說我們很受歡迎,那麼我們只好傾向於把它當真因為根本無法驗證。由於對於潛在錯誤算法的錯誤信任,這反過來會讓我們做出不同的決定。

弗萊指出我們可能太過於相信算法以至於推翻個人判斷。

她點到了關於一個關於一車遊客的故事。這車遊客想要從水裡開過到達他們的夢想目的地。他們並沒有違反行新規則,必須獲救。

但要是我們的自我認知被強迫歪斜,誰會來拯救我們呢?

此外,使用數據將他人和我們自己的經驗聯繫起來,對於讓算法深入了解我們的個人信息來說,這是一個單獨的問題,這些信息可能會與其他參與者(而不是我們)共享。

「如果算法不與您共享信息,但與廣告商或是政府共享信息,會發生什麼?「赫拉利疑惑道。

即使現在,我們在社交媒體上的信息也被用來提供「相關」的廣告,而我們只是剛剛開始了解是誰在為我們付費看這些廣告。

赫拉利說:「這是一個很好的例子,因為這已經發生了。」

人工智能已經被用來預測我們是否會辭職或與我們的愛人分手。這兩方面都是我們中的許多人不願讓私人朋友(更不用說非個人組織)知道的個人決定。

李懷疑一個算法是否能夠以這種方式超越我們自己的自省。「我不太確定!「她說,這給了我們希望,我們可以在還有時間的情況下,深思熟慮地解決其中一些挑戰。

「人類從火開始創造的任何技術都是一把雙刃劍。它可以改善生活、工作和社會,但它可以帶來危險,而人工智能也有這些危險,」她提醒我們。

在人工智能中心的人類

在人工智能中心的人類

我們能以人為中心,重新審視人工智能和技術的教育、研究和對話嗎?

李飛飛

討論涉及了許多相關學科,為了開始解決我們面臨的許多問題,其中李提出了一個巧妙開放的建議,那就是以以人為中心的方式重建人工智能。

在斯坦福大學,李的變革旨在為所有組織提供了一個功能模板,不管規模大小和來源如何。

她建立了斯坦福以人為中心的人工智能研究所,該研究所將來自不同領域的個人聚集在一起,開展新的合作對話。

學院有以下三條宗旨:

  1. 深思熟慮我們希望人工智能成為什麼樣的;
  2. 鼓勵多學科學習;
  3. 着眼於人類的發展壯大。

李飛飛針對此學院說:「我們不是一定要今天找到解決辦法,但是我們能讓人文主義者、哲學家、歷史學家、政治科學家、經濟學家、倫理學家、法律學者、神經科學家、心理學家以及其他許多學者參與到下一章人工智能的研究和發展中來。」

這一建議源於研究人員和實踐者在獲得和保持公眾信任的挑戰、提供積極的用戶體驗以及用深思熟慮的政策建議取代人工智能中的恐懼。

在人工智能社區內定義明確的目標是邁向一個我們都能團結在一起的樞紐的重要一步,各個學科之間的交叉越來越具有吸引力。

李飛飛強調說:「這正是為什麼現在我們認為人工智能的新篇章需要由人文主義者、社會科學家、商界領袖、民間社會、各國政府共同努力來書寫,以便在同一桌上進行多邊和合作對話。」

但我們已來到十字路口。

事實上,今天面臨的許多倫理問題都是工程師做出決定的結果:「快速行動,打破一切」的精神最終導致了真正的失敗。

在技術領域工作可以使其創建者看不到他們所構建的技術的影響。其實有無數無意的結果:舉一個例子,大型在線零售商擠掉了小企業,改變了城市的構成。

我們如何平衡對創新的渴望和隨之而來的風險呢?當企業成功時,沒有考慮到他們的人工智能產品帶來的減速,我們應該採取措施來抑制他們的增長嗎?

李飛飛對將倫理學納入軟件學科持樂觀態度。

「以人為中心的人工智能需要由下一代技術專家編寫,這些技術專家上過諸如斯坦福大學政治學教授Rob的《計算機、倫理和公共政策》一課,以思考道德含義、人類福祉。」

無論這個目標多麼簡單,人工智能社區中的許多人可能會懷疑它是否也是最具挑戰性的。

「作為技術專家,我們不可能獨自完成這項工作。」李飛飛警告說。

如何才能說服那些從事人工智能工作的技術人員,那些不想關心他們工作的社會效應等模糊主題的人。他們應該關心這些事情嗎?而且,這是期望嗎?是否需要在整個行業的每一個角色都有一個道德層面?

李飛飛不太確定。

「在這些問題上,應該有倫理學家、哲學家參與進來,並與我們合作。」

儘管在這個行業工作的有遠見的人不會忽視它的重要性,但它所需要的範式轉換不應被最小化。從歷史上看,技術界對任何非技術性或技術性相鄰的主題都非常鄙視。那麼人工智能社區是會尊重這些新觀點還是會將目光轉向那些不了解反向傳播的人?

當被問及赫拉利的作品是否在李飛飛的教學大綱中時,她甚至開玩笑說:「對不起,並不在。我教核心的深度學習。他的書沒有方程式。」

談話的時機恰到好處,就人工智能在未來幾十年對個人的影響提出了重要的新問題。為了減少「黑客」的可能性,在不充分了解操縱可能性的限制的情況下,赫拉利敦促我們集中精力於自我意識:

「所有哲學書籍中最古老的建議就是認識自己。我們從蘇格拉底、孔子、佛陀那裡聽到過:認識你自己。但有一點不同,那就是現在你有了競爭……你在和這些大公司和政府競爭。如果他們比你更了解你自己,比賽就結束了。」

但正如李飛飛建議的那樣,需要合作。這項工作正開始在世界各地的許多組織中形成。

赫拉利和李飛飛之間的對話標誌着人工智能新類型工作的開始。

她說:「我們打開了人文主義者和技術專家之間的對話,我希望看到更多的對話。」

本文轉自公眾號 讀芯術,原文地址