「如果一個典型的人可以用不到一秒鐘的時間做一個心理任務,我們現在或者在不久的將來可能會使用AI自動化它。」
– Andrew Ng
閱讀本文的大多數人可能熟悉機器學習以及用於根據數據對結果進行分類或預測的相關算法。但是,重要的是要了解機器學習不是所有問題的答案。鑒於機器學習的有用性,很難接受有時它不是問題的最佳解決方案。
在本文中,我的目的是讓讀者相信,有時機器學習是正確的解決方案,有時候它是錯誤的解決方案。
機器學習是人工智能的一個子集,它在過去十年中已經徹底改變了我們所知道的世界。信息爆炸導致收集大量數據,特別是Facebook和谷歌等大公司。這一數據量加上處理器功率和計算機並行化的快速發展,現在可以相對容易地獲取和研究大量數據。
如今,關於機器學習和人工智能的誇張無處不在。這可能是正確的,因為這個領域的潛力巨大。人工智能諮詢機構的數量在過去幾年中飆升,根據Indeed的一份報告,2015年至2018年期間與人工智能相關的工作崗位數量激增了100%。
截至2018年12月,福布斯發現47%的企業在其業務流程中至少擁有一項人工智能,德勤的一份報告預測,內置AI的企業軟件的滲透率和基於雲的AI開發服務,預計將分別達到87%和83%。這些數字令人印象深刻 – 如果你計劃很快改變職業,人工智能似乎是一個不錯的選擇。
這一切看起來都很棒嗎?公司很高興,並且可能消費者也很高興 – 否則,公司就不會使用人工智能。
這很棒,我是機器學習和人工智能的忠實粉絲。但是,有時候使用機器學習是不必要的,沒有意義,有時候它的實現會讓你陷入困境。
限制1 – 道德規範
機器學習是人工智能的一個子集,它在過去十年中已經徹底改變了我們所知道的世界。信息爆炸導致收集大量數據,特別是Facebook和谷歌等大公司。這一數據量加上處理器功率和計算機並行化的快速發展,現在可以相對容易地獲取和研究大量數據。
很容易理解為什麼機器學習對世界產生了如此深遠的影響,不太清楚的是它的能力究竟是什麼,也許更重要的是它的局限性。Yuval Noah Harari着名地創造了「數據主義」這個術語,它指的是我們正在進入的一個假定的文明新階段,我們相信算法和數據比我們自己的判斷和邏輯更多。
雖然你可能覺得這個想法很可笑,但請記住你最後一次去度假並按照GPS的指示而不是你自己在地圖上的判斷 – 你是否質疑GPS的判斷?由於他們盲目地按照GPS的指示,人們已經開始進入湖泊。
信任數據和算法的想法超出了我們自己的判斷,這有其優點和缺點。顯然,我們從這些算法中受益,否則,我們首先不會使用它們。這些算法允許我們通過使用可用數據做出明智的判斷來自動化流程。然而,有時候,這意味着用一種算法取代某人的工作,這種算法伴隨着道德的後果。另外,如果出現問題我們會責怪誰?
目前最常討論的案例是自動駕駛汽車 – 我們如何選擇車輛在發生致命碰撞時應如何反應?在未來,我們必須選擇在購買車輛時我們希望自動駕駛汽車遵循哪種道德框架?
如果我的自動駕駛汽車在路上殺死了某人,那是誰的錯?
雖然這些都是引人入勝的問題,但它們並不是本文的主要目的。然而,顯而易見,機器學習無法告訴我們什麼是我們應該接受的規範性價值觀,即我們應該如何在特定情況下在世界上採取行動。正如大衛·休姆(David Hume)所說的那樣,人們不能「從一個人那裡得到一個」。
限制2 – 確定性問題
這是我個人不得不處理的限制。我的專業領域是環境科學,它在很大程度上依賴於計算建模和使用傳感器/物聯網設備。
機器學習對於傳感器來說非常強大,當連接到測量環境變量(如溫度,壓力和濕度)的其他傳感器時,可用於幫助校準和校正傳感器。來自這些傳感器的信號之間的相關性可用於開發自校準程序,這是我的大氣化學研究領域的熱門研究課題。
然而,在計算建模方面,事情變得更有趣。
運行模擬全球天氣,地球排放以及這些排放物運輸的計算機模型計算成本非常高。實際上,它的計算成本非常昂貴,即使在超級計算機上運行,研究級仿真也可能需要數周時間。
MM5和WRF就是很好的例子,它們是數值天氣預報模型,用於氣候研究,並為您提供早間新聞的天氣預報。想知道天氣預報員整天都在做什麼?運行並研究這些模型。
運行天氣模型很好,但現在我們有機器學習,我們可以用這個來獲取我們的天氣預報嗎?我們能否利用來自衛星,氣象站的數據,並使用基本預測算法來辨別明天是否會下雨?
答案是,令人驚訝的是,是的。如果我們知道某個區域周圍的空氣壓力,空氣中的水分含量,風速以及相鄰點的信息及其自身變量,就可以訓練,例如,神經網絡。但是以什麼代價?
使用具有一千個輸入的神經網絡來確定明天是否會在波士頓下雨。然而,利用神經網絡錯過了天氣系統的整個物理特性。
機器學習是隨機的,而不是確定性的。
神經網絡不了解牛頓第二定律,或密度不能為負 – 沒有物理約束。
但是,這可能不是長期的限制。有許多研究人員正在考慮為神經網絡和其他算法添加物理約束,以便將它們用於此類目的。
限制3 – 數據
這是最明顯的限制。如果你喂的模型很差,那麼它只能給你不好的結果。這可以通過兩種方式表現出來:缺乏數據和缺乏良好的數據。
缺少數據
許多機器學習算法在開始提供有用結果之前需要大量數據。一個很好的例子是神經網絡。神經網絡是需要大量訓練數據的數據吞噬機器。架構越大,產生可行結果所需的數據就越多。重用數據是一個壞主意,數據增加在某種程度上是有用的,但擁有更多數據始終是首選解決方案。
如果您可以獲取數據,那麼使用它。
缺乏好的數據
儘管外表,但這與上述評論不同。讓我們想像一下,你認為你可以通過生成一萬個假數據點來欺騙你的神經網絡。你把它放進去會發生什麼?
它將訓練自己,然後當你在一個看不見的數據集上進行測試時,它將無法正常運行。你有數據,但數據的質量沒有達到標準。
同樣,缺乏良好功能會導致算法性能不佳,缺乏良好的基礎事實數據也會限制模型的功能。沒有公司會實施比人類級錯誤更糟糕的機器學習模型。
類似地,在一種情況下應用在一組數據上訓練的模型可能不一定適用於第二種情況。到目前為止,我發現的最好的例子是乳腺癌預測。
乳房X光攝影數據庫中有很多圖像,但是它們遭受了近年來引起嚴重問題的一個問題 – 幾乎所有的X射線都來自白人女性。這可能聽起來不是什麼大問題,但實際上,由於各種因素可能包括檢測和獲得醫療保健的差異,黑人女性死於乳腺癌的可能性增加42%。因此,在這種情況下,主要針對白人女性的算法訓練會對黑人女性產生不利影響。
在這個特定情況下需要的是訓練數據庫中黑人患者的X射線數量越多,與這種可能性增加42%相關的更多特徵,以及通過對數據集進行分層來使算法更加公平。相關軸。
如果您對此持懷疑態度或想了解更多信息,我建議您查看本文。
限制4 – 誤用
與前面討論的第二個限制相關,據稱是「 學術研究中的機器學習危機 」,人們盲目地使用機器學習來嘗試和分析本質上具有確定性或隨機性的系統。
由於在限制二中討論的原因,在確定性系統上應用機器學習將成功,但算法不能學習兩個變量之間的關係,並且不知道它何時違反物理定律。我們只是向系統提供了一些輸入和輸出,並告訴它要學習這種關係 – 就像有人從字典中逐字逐句翻譯一樣,算法似乎只能輕易掌握基礎物理。
對於隨機(隨機)系統,事情有點不太明顯。隨機系統的機器學習危機以兩種方式表現出來:
- P-黑客
- 分析範圍
P-黑客
當一個人可以訪問可能有數百,數千甚至數百萬個變量的大數據時,找到統計上顯着的結果並不太困難(假設大多數科學研究所需的統計學意義水平為p <0.05) 。這通常會導致發現虛假的相關性,這些相關性通常通過p-hacking獲得(查看大量數據,直到找到顯示統計上顯着結果的相關性)。這些不是真正的相關性,只是對測量中的噪聲做出響應。
這導致個體「釣魚」通過大型數據集進行統計上顯着的相關性,並偽裝成真正的相關性。有時,這是一個無辜的錯誤(在這種情況下,科學家應該受到更好的培訓),但有時候,這樣做是為了增加研究人員發表的論文數量 – 即使在學術界,競爭也很激烈,人們會做任何事情來改善他們的指標。
分析範圍
與統計建模相比,機器學習分析的範圍存在固有差異 – 統計建模本質上是確認性的,機器學習本質上是探索性的。
我們可以將驗證性分析和模型視為某人在博士學位中所做的事情。計劃或研究領域。想像一下,您正在與顧問合作並嘗試開發一個理論框架來研究一些現實世界的系統。該系統具有一組受其影響的預定義特徵,並且在仔細設計實驗和開發假設之後,您可以運行測試以確定假設的有效性。
另一方面,探索性缺乏與驗證性分析相關的許多品質。實際上,在真正大量數據和信息的情況下,由於數據量龐大,確認方法完全崩潰。換句話說,在存在數百個,數千個,數百萬個特徵的情況下,根本不可能仔細地布置一組有限的可測試假設。
因此,從廣義上講,機器學習算法和方法最適合於利用大量數據和計算複雜特徵進行探索性預測建模和分類。有人會認為它們可以用於「小」數據,但是為什麼當經典的多變量統計方法提供更多信息時會這樣做呢?
ML是一個在很大程度上解決來自信息技術,計算機科學等問題的領域,這些領域既可以是理論問題,也可以是應用問題。因此,它與物理學,數學,概率和統計學等領域有關,但ML本身就是一個領域,這個領域不受其他學科提出的問題的影響。ML專家和從業者提出的許多解決方案都是錯誤的……但是他們完成了工作。
限制5 – 可解釋性
可解釋性是機器學習的主要問題之一。一家人工智能諮詢公司試圖向一家只使用傳統統計方法的公司投資,如果他們認為該模型不可解釋,就可以停止。如果您無法說服您的客戶了解算法是如何做出決定的,那麼他們有多大可能信任您和您的專業知識?
正如「 商業數據挖掘 – 機器學習視角 」中直言不諱的那樣:
「如果以業務術語解釋結果,業務經理更有可能接受[機器學習方法]建議」
除非可以解釋這些模型,否則這些模型可以變得無能為力,並且人類解釋的過程遵循遠遠超出技術實力的規則。因此,可解釋性是機器學習方法如果要在實踐中應用的目標應達到的最高質量。
特別是開花的 – 組學,基因組學,蛋白質組學,代謝組學等,已經成為機器學習研究者的主要目標,因為它們依賴於大型和非平凡的數據庫。然而,儘管取得了明顯的成功,但他們的方法缺乏可解釋性。
總結和彼得沃斯的名單
雖然不可否認的是,人工智能已經開闢了大量有前途的機會,但它也導致了一種心態的出現,這種心態最好被描述為「 人工智能解決方案 」。這是一種哲學,如果有足夠的數據,機器學習算法可以解決所有人類的問題。
正如我希望我在本文中明確指出的那樣,至少在目前情況下,存在一些限制,以防止出現這種情況。神經網絡永遠無法告訴我們如何成為一個好人,至少就目前而言,不了解牛頓的運動定律或愛因斯坦的相對論。基於機器學習的基礎理論也存在基本限制,稱為計算學習理論,主要是統計限制。我們還討論了與分析範圍和p-hacking的危險相關的問題,這可能導致虛假的結論。結果的可解釋性也存在問題,這可能會對那些無法使客戶和投資者確信其方法準確可靠的企業產生負面影響。
雖然在本文中我已經非常廣泛地介紹了人工智能的一些最重要的局限性,但我將在2016年10月的Peter Voss 的一篇文章中列出一個列表,其中列出了關於人工智能局限性的更全面的列表。雖然目前的主流技術在狹窄的領域可能非常強大,但他們通常會列出一些或所有的約束列表,我將在此完整引用:
- 每個狹窄的應用程序都需要經過專門培訓
- 需要大量手工製作的結構化培訓數據
- 通常必須監督學習:必須標記訓練數據
- 需要冗長的離線/批量培訓
- 不要實時地以增量或交互方式學習
- 轉移學習能力差,模塊可重用性和集成
- 系統是不透明的,使得它們很難調試
- 「長尾」無法審核或保證表現
- 它們編碼相關性,而不是因果關係或本體論關係
- 不要對實體之間的實體或空間關係進行編碼
- 只處理自然語言的非常狹隘的方面
- 不適合高級,象徵性的推理或計劃
話雖如此,機器學習和人工智能將繼續為工業帶來革命,並且只會在未來幾年變得更加普遍。雖然我建議你最大限度地利用機器學習和人工智能,但我也建議你記住你使用的工具的局限性 – 畢竟,沒有什麼是完美的。
本文轉自towardsdatascience,原文地址
Comments