与其他领域相比,机器学习/人工智能现在似乎有更高频率的超级有趣的发展。让你说“哇”甚至“什么时间活着!”的事情(作为两分钟论文的创造者总是说)

免责声明:我没有使用任何严格的“令人兴奋”或“突破”的定义; 这是一个随意的列表..我可能会使用不太严格的术语来使这篇文章更容易访问

惊人的准确预估

穿墙人体姿势估计

网站/视频由麻省理工学院研究人员,2018年

我们可以准确地估计墙壁另一侧的人是如何站立/坐着/行走的,仅仅是由于人类引起的Wifi信号的扰动。

从视频中测量材料的物理特性

麻省理工学院研究人员的文章/视频,2015年

研究人员在2014年首次证明,他们可以根据振动从马铃薯片袋的视频(没有音频)再现人类语音。这部分没有机器学习。在2015年,他们使用机器学习来证明您可以仅从视频中估算材料的刚度,弹性,单位面积重量等(在某些情况下,仅仅由普通的空气循环引起的振动就足够了)。

估计键盘旁边智能手机的按键

论文,2015年

估计键盘旁边智能手机的按键

研究人员表示,通过放置在键盘旁边的单个现成智能手机录制的音频,人们可以估计出单个击键的准确率为94%。与先前使用监督深度学习并且在键盘周围放置许多麦克风的方法不同,本文实际上使用相对简单的机器学习技术(K均值聚类)和无监督学习。

生成模型

逼真的面部生成

由NVIDIA研究人员撰写的论文 / 视频,2018年

机器生成人脸的过程

研究人员将一种新的架构与大量的GPU相结合,创造出极其逼真的人工脸部,这些人工脸部是其他面部之间的插值,或者是一个面部与另一个面部“风格”的应用。这项工作建立在过去关于生成对抗网络(GAN)的工作之上。GAN是在2014年发明的,从那时起研究爆炸式增长。GAN的最基本概念是两个相互决斗的神经网络(例如,将图像分类为“真实”或“虚假”的第二个神经网络,以及以试图“欺骗”第一个神经网络的方式生成图像的第二个神经网络错误地将假图像归类为真实…因此第二神经网络是第一个的“对手”。

总的来说,有很多关于对抗性机器学习的精彩研究,已经存在了十多年。对网络安全等有许多令人毛骨悚然的影响但我离题了。

绘制教学机器

2017年Google Brain博客文章

机器学会画画
两幅图纸之间的插值

我熟悉Google Brain的David Ha使用生成性递归神经网络(RNN)制作基于矢量图形的绘图(我认为这是Adobe Illustrator,除了自动化)。

将伟大的舞蹈动作教给机器

加州大学伯克利分校研究人员的网站 / 视频,2018年

想想“自动调整舞蹈。”通过使用姿势估计和生成对抗训练,研究人员能够制作一个虚假的视频,让任何真实的人(“目标”人)以极佳的舞蹈技巧跳舞。所需的输入仅为:

  • 一个舞蹈技巧很棒的人的短片
  • 目标人跳舞的几分钟视频(由于大多数人都喜欢跳舞,所以通常很糟糕)

我还看到了NVIDIA的首席执行官Jensen Huang,他展示了一个像Michael Jackson一样跳舞的视频(用这种技术制作)。我很高兴参加了GPU技术大会,哈哈。

强化学习

世界模特 – 人工智能在自己的梦想中学习

网站由Google Brain,2018年提供

永不停止的机器学习

人类实际上并不了解或思考我们所生活的世界的所有细节。我们的行为基于对我们头脑中的世界的抽象。例如,如果我骑自行车,我不会想到自行车的齿轮/螺母/螺栓; 我只是粗略地了解车轮,座椅和把手的位置以及如何与它们互动。为什么不对AI使用类似的方法?

这种“世界模型”方法(再次由David Ha等人创建)允许“代理人”(例如,在赛车游戏中控制汽车的AI)创建围绕它的世界/环境的生成模型,这是一种简化/抽象的实际环境。因此,您可以将世界模型视为生活在人工智能领域的梦想。然后AI可以通过强化学习在这个“梦想”中进行训练,以获得更好的表现。因此,这种方法实际上是将生成性ML与强化学习相结合。通过这样做,研究人员能够在某些视频游戏任务中实现最先进的性能。

[更新2019/2/15]基于上述“世界模型”方法,Google刚刚发布了PlaNet:强化学习深度规划网络,其数据效率比以前的方法提高了5000%。

AlphaStar – 星际争霸II 机器击败顶级职业选手

由DeepMind(谷歌)发布的博客文章e-sports-ish视频,2019年

我们距离Lee Sedol和DeepMind的AlphaGo之间历史性Go比赛已经走了很长的路,这场比赛震撼了全世界,仅仅3年前的2016年(看看NetFlix纪录片,让一些人哭了)。然后,尽管没有使用人类比赛的任何训练数据,2017年AlphaZero比GoGo上的AlphaGo更好(并且比国际象棋中的任何其他算法,日本国际象棋等更好)。但是2019年的AlphaStar 令人惊叹。

自1998年以来我一直是星际争霸的粉丝,我可以理解“……需要平衡短期和长期目标并适应意外情况……这是一个巨大的挑战。”这真的是一个困难而复杂的游戏,需要在多层次上理解玩的不错。自2009年以来,对星际争霸算法的研究一直在进行。

AlphaStar基本上使用了监督学习(来自人类匹配)和强化学习(对抗自身)的组合来实现其结果。

人类训练机器人

通过单一的人体演示将任务教学到机器上

文章 / 视频由NVIDIA研究人员,2018年

我可以想到3种教授机器人做某事的典型方法,但都需要花费大量的时间/劳力:

  • 针对每种情况手动编程机器人的关节旋转等
  • 让机器人多次尝试任务(强化学习)
  • 多次向机器人展示任务

通常,对深度学习的一个主要批评是,生成数百万使计算机运行良好的示例(数据)成本非常高。但是,越来越多的方法不依赖于如此昂贵的数据。

研究人员找到了一种机器人手臂成功执行任务的方法(例如“拾取块并堆叠它们以使它们处于顺序:红色块,蓝色块,橙色块”)基于单个视频即使视频是从不同的角度拍摄的,也只需要一个人体演示(一个物理真实的人手移动块)。该算法实际上生成了它计划执行的任务的人类可读描述,这对于故障排除非常有用。该算法依赖于具有姿态估计,合成训练数据生成和模拟到现实传递的对象检测。

无人监督的机器翻译

博客文章由Facebook AI Research,2018年

通常情况下,您需要一个庞大的翻译文件培训数据集(例如联合国程序的专业翻译)才能很好地进行机器翻译(即监督学习)。当然,许多主题和语言对没有高质量,丰富的培训数据。在本文中,研究人员表明,可以使用无监督学习(即不使用翻译数据,只使用每种语言中不相关的文本语料库),可以达到最先进的监督学习方法的翻译质量。哇。

基本思想是,在任何语言中,某些词/概念往往会出现在附近(例如“毛茸茸”和“猫”)。他们将此描述为“不同语言中的单词嵌入共享相似的邻域结构。”我的意思是,我明白了,但是使用这种方法仍然令人兴奋,他们可以达到如此高的翻译质量,而无需对翻译数据集进行培训。

本文转自Noteworthy,原文地址(需要科学上网)