與其他領域相比,機器學習/人工智能現在似乎有更高頻率的超級有趣的發展。讓你說“哇”甚至“什麼時間活着!”的事情(作為兩分鐘論文的創造者總是說)

免責聲明:我沒有使用任何嚴格的“令人興奮”或“突破”的定義; 這是一個隨意的列表..我可能會使用不太嚴格的術語來使這篇文章更容易訪問

驚人的準確預估

穿牆人體姿勢估計

網站/視頻由麻省理工學院研究人員,2018年

我們可以準確地估計牆壁另一側的人是如何站立/坐着/行走的,僅僅是由於人類引起的Wifi信號的擾動。

從視頻中測量材料的物理特性

麻省理工學院研究人員的文章/視頻,2015年

研究人員在2014年首次證明,他們可以根據振動從馬鈴薯片袋的視頻(沒有音頻)再現人類語音。這部分沒有機器學習。在2015年,他們使用機器學習來證明您可以僅從視頻中估算材料的剛度,彈性,單位面積重量等(在某些情況下,僅僅由普通的空氣循環引起的振動就足夠了)。

估計鍵盤旁邊智能手機的按鍵

論文,2015年

估計鍵盤旁邊智能手機的按鍵

研究人員表示,通過放置在鍵盤旁邊的單個現成智能手機錄製的音頻,人們可以估計出單個擊鍵的準確率為94%。與先前使用監督深度學習並且在鍵盤周圍放置許多麥克風的方法不同,本文實際上使用相對簡單的機器學習技術(K均值聚類)和無監督學習。

生成模型

逼真的面部生成

由NVIDIA研究人員撰寫的論文 / 視頻,2018年

機器生成人臉的過程

研究人員將一種新的架構與大量的GPU相結合,創造出極其逼真的人工臉部,這些人工臉部是其他面部之間的插值,或者是一個面部與另一個面部“風格”的應用。這項工作建立在過去關於生成對抗網絡(GAN)的工作之上。GAN是在2014年發明的,從那時起研究爆炸式增長。GAN的最基本概念是兩個相互決鬥的神經網絡(例如,將圖像分類為“真實”或“虛假”的第二個神經網絡,以及以試圖“欺騙”第一個神經網絡的方式生成圖像的第二個神經網絡錯誤地將假圖像歸類為真實…因此第二神經網絡是第一個的“對手”。

總的來說,有很多關於對抗性機器學習的精彩研究,已經存在了十多年。對網絡安全等有許多令人毛骨悚然的影響但我離題了。

繪製教學機器

2017年Google Brain博客文章

機器學會畫畫
兩幅圖紙之間的插值

我熟悉Google Brain的David Ha使用生成性遞歸神經網絡(RNN)製作基於矢量圖形的繪圖(我認為這是Adobe Illustrator,除了自動化)。

將偉大的舞蹈動作教給機器

加州大學伯克利分校研究人員的網站 / 視頻,2018年

想想“自動調整舞蹈。”通過使用姿勢估計和生成對抗訓練,研究人員能夠製作一個虛假的視頻,讓任何真實的人(“目標”人)以極佳的舞蹈技巧跳舞。所需的輸入僅為:

  • 一個舞蹈技巧很棒的人的短片
  • 目標人跳舞的幾分鐘視頻(由於大多數人都喜歡跳舞,所以通常很糟糕)

我還看到了NVIDIA的首席執行官Jensen Huang,他展示了一個像Michael Jackson一樣跳舞的視頻(用這種技術製作)。我很高興參加了GPU技術大會,哈哈。

強化學習

世界模特 – 人工智能在自己的夢想中學習

網站由Google Brain,2018年提供

永不停止的機器學習

人類實際上並不了解或思考我們所生活的世界的所有細節。我們的行為基於對我們頭腦中的世界的抽象。例如,如果我騎自行車,我不會想到自行車的齒輪/螺母/螺栓; 我只是粗略地了解車輪,座椅和把手的位置以及如何與它們互動。為什麼不對AI使用類似的方法?

這種“世界模型”方法(再次由David Ha等人創建)允許“代理人”(例如,在賽車遊戲中控制汽車的AI)創建圍繞它的世界/環境的生成模型,這是一種簡化/抽象的實際環境。因此,您可以將世界模型視為生活在人工智能領域的夢想。然後AI可以通過強化學習在這個“夢想”中進行訓練,以獲得更好的表現。因此,這種方法實際上是將生成性ML與強化學習相結合。通過這樣做,研究人員能夠在某些視頻遊戲任務中實現最先進的性能。

[更新2019/2/15]基於上述“世界模型”方法,Google剛剛發布了PlaNet:強化學習深度規劃網絡,其數據效率比以前的方法提高了5000%。

AlphaStar – 星際爭霸II 機器擊敗頂級職業選手

由DeepMind(谷歌)發布的博客文章e-sports-ish視頻,2019年

我們距離Lee Sedol和DeepMind的AlphaGo之間歷史性Go比賽已經走了很長的路,這場比賽震撼了全世界,僅僅3年前的2016年(看看NetFlix紀錄片,讓一些人哭了)。然後,儘管沒有使用人類比賽的任何訓練數據,2017年AlphaZero比GoGo上的AlphaGo更好(並且比國際象棋中的任何其他算法,日本國際象棋等更好)。但是2019年的AlphaStar 令人驚嘆。

自1998年以來我一直是星際爭霸的粉絲,我可以理解“……需要平衡短期和長期目標並適應意外情況……這是一個巨大的挑戰。”這真的是一個困難而複雜的遊戲,需要在多層次上理解玩的不錯。自2009年以來,對星際爭霸算法的研究一直在進行。

AlphaStar基本上使用了監督學習(來自人類匹配)和強化學習(對抗自身)的組合來實現其結果。

人類訓練機器人

通過單一的人體演示將任務教學到機器上

文章 / 視頻由NVIDIA研究人員,2018年

我可以想到3種教授機器人做某事的典型方法,但都需要花費大量的時間/勞力:

  • 針對每種情況手動編程機器人的關節旋轉等
  • 讓機器人多次嘗試任務(強化學習)
  • 多次向機器人展示任務

通常,對深度學習的一個主要批評是,生成數百萬使計算機運行良好的示例(數據)成本非常高。但是,越來越多的方法不依賴於如此昂貴的數據。

研究人員找到了一種機器人手臂成功執行任務的方法(例如“拾取塊並堆疊它們以使它們處於順序:紅色塊,藍色塊,橙色塊”)基於單個視頻即使視頻是從不同的角度拍攝的,也只需要一個人體演示(一個物理真實的人手移動塊)。該算法實際上生成了它計劃執行的任務的人類可讀描述,這對於故障排除非常有用。該算法依賴於具有姿態估計,合成訓練數據生成和模擬到現實傳遞的對象檢測。

無人監督的機器翻譯

博客文章由Facebook AI Research,2018年

通常情況下,您需要一個龐大的翻譯文件培訓數據集(例如聯合國程序的專業翻譯)才能很好地進行機器翻譯(即監督學習)。當然,許多主題和語言對沒有高質量,豐富的培訓數據。在本文中,研究人員表明,可以使用無監督學習(即不使用翻譯數據,只使用每種語言中不相關的文本語料庫),可以達到最先進的監督學習方法的翻譯質量。哇。

基本思想是,在任何語言中,某些詞/概念往往會出現在附近(例如“毛茸茸”和“貓”)。他們將此描述為“不同語言中的單詞嵌入共享相似的鄰域結構。”我的意思是,我明白了,但是使用這種方法仍然令人興奮,他們可以達到如此高的翻譯質量,而無需對翻譯數據集進行培訓。

本文轉自Noteworthy,原文地址(需要科學上網)