Author Archive

GPU(Graphics Processing Unit)

什么是 GPU?

CPU 能力更强大,能做很多事情,适合处理复杂的任务。GPU 结构简单,可以形成人海战术,适合处理重复简单的任务。

知乎上有一个回答很应景:

GPU和CPU的差别
GPU和CPU的差别

 

一个数学教授和100个小学生PK。

第一回合,四则运算,一百个题。教授拿到卷子一道道算。一百个小学生各拿一道题。教授刚开始算到第二题的时候,小学生集体交卷。第一回合小学生碾压教授。

第二回合,高等函数。一百个题。当教授搞定后。一百个小学生还不知道在干嘛…….第二回合,教授碾压一百个小学生。好理解吗?

这就是CPU和GPU的浅显比较。

 

百度百科版本

图形处理器(英语:Graphics Processing Unit,缩写:GPU),又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上图像运算工作的微处理器。

用途是将计算机系统所需要的显示信息进行转换驱动,并向显示器提供行扫描信号,控制显示器的正确显示,是连接显示器和个人电脑主板的重要元件,也是“人机对话”的重要设备之一。显卡作为电脑主机里的一个重要组成部分,承担输出显示图形的任务,对于从事专业图形设计的人来说显卡非常重要。

查看详情

 

维基百科版本

图形处理单元(GPU)是一个专门的电子电路设计成迅速操纵和改变存储器加速的创建图像在一个帧缓冲器旨在用于输出到显示装置。GPU用于嵌入式系统,移动电话,个人计算机,工作站和游戏控制台。现代GPU在处理计算机图形和图像处理方面非常有效。它们高度并行的结构使它们比通用的更有效用于并行处理大块数据的算法的CPU。在个人计算机中,GPU可以存在于视频卡上或嵌入在主板上。在某些CPU中,它们嵌入在CPU 芯片上。

GPU至少在20世纪80年代一直被使用,它在1999年由Nvidia推广,他将GeForce 256作为“世界上第一个GPU” 推向市场。它被呈现为“具有集成变换,光照,三角形设置/剪切和渲染引擎的单芯片处理器”。竞争对手ATI Technologies在2002年发布了Radeon 9700,创造了“ 视觉处理单元 ”或VPU这一术语。

查看详情

 

算力 – computation

人工智能里的算力是什么?

在普通电脑中,CPU就提供了算力帮助电脑快速运行。玩游戏的时候需要显卡提供算力,帮助电脑快速处理图形。而在 人工智能中,需要有类似CPU和GPU的硬件来提供算力,帮助算法快速运算出结果。

之前在算法里讲过,在制造木桌的过程中,工厂的流水线就是算法。在那个例子中,工厂中的机器就像算力,机器越好越先进,制造的过程就越快。

 

算力越大,速度越快
算力越大,速度越快

 

维基百科版本

Techpedia版本

算力是使用计算机技术完成给定目标导向任务的过程。算力可以包括软件和硬件系统的设计和开发,用于广泛的目的 – 通常构建,处理和管理任何类型的信息 – 以帮助追求科学研究,制作智能系统,以及创建和使用不同的媒体娱乐和交流。

查看详情

 

维基百科版本

算力是使用计算机的任何活动。它包括开发硬件 和软件,以及使用计算机来管理和处理信息,进行交流和娱乐。算力是现代工业技术的一个至关重要的组成部分。主要的计算学科包括计算机工程,软件工程,计算机科学,信息系统和信息技术。

查看详情

 

算法 – Algorithm

一文看懂人工智能里的算法

人工智能有三驾马车:数据、算法、算力。本文重点介绍算法相关的知识。

本文将介绍算法在人工智能里的概念,算法的4个特征、6个通用方法。以及在选择算法时需要注意的3个点。

 

什么是算法?

简单的说,算法就是:解决问题的手段,并且是批量化解决问题的手段。

菜谱就是一种“算法”,只要按照菜谱的方法做,就能做出对应的菜。

菜谱就是一种算法

人工智能里的算法主要是用来训练模型的。

机器学习 一共有7步,第3步就是选择合适的算法模型。通过训练得到最后的可预测模型。

机器学习第3步就是选择合适的算法模型

算法的4个基本特征

算法的4个基本特征

算法具有下面4个特征:

  1. 可行性
  2. 确定性
  3. 有穷性
  4. 拥有足够的情报

关于这4项特征详细的说明请查看《算法的基本概念

 

算法的6个基本方法

计算机的算法和人类计算的方式不同,大致有6种不同的思路:

  1. 列举法
  2. 归纳法
  3. 递推
  4. 递归
  5. 减半递推技术
  6. 回溯法

想要了解详情可以查看《算法的基本概念

 

选择算法时的3个Tips

选择算法的3个tips

  1. 解决不同的问题可能会用到不同的算法,也可能用相同的算法。没有某种算法是万能的,只是适用的范围不同而已。
  2. 算法没有高级和低级之分,快速便宜的解决问题才是目的,一味追求复杂的算法(例如:深度学习),相当于“用大炮打蚊子”
  3. 有时候有多种算法可以解决同一个问题,用最低的成本和最短的时间解决问题才是目的。根据不同环境选择合适的算法很重要。

 

百度百科+维基百科

百度百科版本

算法是指解题方案的准确而完整的描述,是一系列解决问题的清晰指令,算法代表着用系统的方法描述解决问题的策略机制。也就是说,能够对一定规范的输入,在有限时间内获得所要求的输出。

如果一个算法有缺陷,或不适合于某个问题,执行这个算法将不会解决这个问题。不同的算法可能用不同的时间、空间或效率来完成同样的任务。一个算法的优劣可以用空间复杂度与时间复杂度来衡量。 算法中的指令描述的是一个计算,当其运行时能从一个初始状态和(可能为空的)初始输入开始,经过一系列有限而清晰定义的状态,最终产生输出并停止于一个终态。

查看详情

 

维基百科版本

在数学和计算机科学中,算法是如何解决一类问题的明确规范。算法可以执行计算,数据处理和自动推理任务。

作为一种有效的方法,算法可以在有限的空间和时间内以及用于计算函数的明确定义的形式语言中表达。从初始状态和初始输入开始,指令描述了一种计算,当执行时,通过有限个明确定义的连续状态,最终产生“输出”和终止于最终结束状态。

算法的概念已经存在了几个世纪。希腊数学家在例如Eratosthenes的筛子中使用算法来寻找素数,并使用Euclidean算法来找到两个数的最大公约数。算法这个词本身来自9世纪的数学家MuḥammadibnMūsāal-Khwārizmī,拉丁化的Algoritmi。对于现代算法概念的部分形式化始于试图解决大卫希尔伯特于1928年提出的Entscheidungsproblem(决策问题)。后来的形式化被定义为试图定义“有效可计算性”或“有效方法” 。这些形式化包括1930年,1934年和1935年的Gödel-Herbrand-Kleene递归函数,1936年的Alonzo Church的lambda演算,1936年的Emil Post的Formulation 1,以及1936-37和1939年的Alan Turing的图灵机。

查看详情

 

实践类文章(1)

图灵测试 – The Turing Test

一文看懂图灵测试和图灵本人

图灵测试的初衷是什么?

图灵测试的提出是因为图灵在思考一个问题:机器能否思考?

并且图灵相信是可以制造出会思考的机器,于是就在想第二个问题:如何判断机器能否思考?

于是就有了图灵测试。

这个过程跟科幻小说一样神奇,不过图灵就是这么一个神奇的人,如果感兴趣可以继续往下看。

 

什么是图灵测试?

图灵测试图解

图灵测试是在1950年提出的,首次发表于《计算机械和智能》(Computing Machinery and Intelligence)。

让一个人坐在电脑前,跟另一边用键盘进行对话,如果这个人分不清跟自己对话的是一个人还是一个机器,那么这个对话机器就通过了图灵测试并具备人工智能。

测试标准:聊天时长25分钟,低于25分钟的不算通过测试

 

图灵还对人工智能的发展给出了非常有益的建议:

与其去研制模拟成人思维的计算机,不如去试着制造更简单,也许只相当于一个小孩智慧的人工智能系统,然后再让这个系统不断去学习——这种思路正是我们今天用机器学习来解决人工智能问题的核心指导思想。

图灵是谁?

艾伦图灵

图灵可以说是天才中的天才,他的很多思想影响至今。

 

二战中的关键人物

丘吉尔曾在回忆录中这样记载,“图灵作为破译了Enigma(恩尼格玛)密码机的英雄,他为盟军最终成功取得第二次世界大战的胜利做出了最大的贡献。”

图灵的破解系统几分钟便能破译德军的Enigma系统,将英国战时情报中心每月破译的情报数量从39000条提升到84000条,让二战至少提前结束了几年。之后,图灵又破解了德军高度加密的Tunny密码,凭借着强大的破译机器,德国军方在二战期间几乎所有等级的通信加密系统均被一一破解。

 

计算机奠基人

24岁的图灵,产生了一个改变世界的构想——图灵机,写于他的论文《论数字计算在决断难题中的应用》,图灵机可以说是将计算机的基本原理全部构想出来了。

他的通用图灵机理念——通过改变软件来实现多重任务执行的抽象计算机——已被肯定为当代计算机的前身,是从第一代阴极管阵列到今天我们所用的各式笔记本电脑的共同“祖先”。

 

同性恋

图灵爱上了19岁的年轻男孩穆雷,然而1952年,艾伦的同性伴侣穆雷协同一名同谋一起闯进图灵的房子盗窃,图灵为此而报警。在警方的几轮审训之后,图灵承认了与穆雷之间的同性恋关系,并被控以“明显的猥亵和性颠倒行为”罪。

在1952 年3 月的庭审上,艾伦承认了自己的罪名,但他明确表示自己不会为此感到后悔。

 

长跑英国前20

图灵还是一名天赋异禀的马拉松跑者,曾经马拉松最好成绩2小时46分。

1946年的8月,34岁的图灵才参加了他正式训练后的第一个比赛。那是在他加入的沃尔顿田径俱乐部后参加的3英里(4.8公里)比赛,图灵以15分37秒的成绩夺得第一。这一成绩当年在英国排名第20位。对于一位34岁的跑者而言,这个成绩已经相当不俗。

 

人工智能+图灵测试

人工智能就是图灵在1950年提出的,如果没有他提出人工智能这个概念,相信大家不会看到今天这么多的 AI 发展和应用。

甚至图灵测试也沿用到了今天。

 

百度百科+维基百科

百度百科版本

图灵测试(The Turing test)由艾伦·麦席森·图灵发明,指测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。 进行多次测试后,如果有超过30%的测试者不能确定出被测试者是人还是机器,那么这台机器就通过了测试,并被认为具有人类智能。

图灵测试一词来源于计算机科学和密码学的先驱阿兰·麦席森·图灵写于1950年的一篇论文《计算机器与智能》,其中30%是图灵对2000年时的机器思考能力的一个预测,目前我们已远远落后于这个预测。

查看详情

维基百科版本

在图灵测试,通过开发阿兰·图灵于1950年,是一台机器对能力的考验表现出的智能行为等同于,或从一个人的区别。

图灵提出,人类评估者会判断人与机器之间的自然语言对话,旨在产生类似人类的反应。评估者会意识到对话中的两个伙伴中的一个是机器,并且所有参与者将彼此分开。对话将仅限于纯文本通道,例如计算机键盘和屏幕,因此结果不依赖于机器将单词呈现为语音的能力。如果评估人员无法可靠地告诉人机,则说机器已通过测试

。测试结果不依赖于机器对问题给出正确答案的能力,只取决于其答案与人类给出的答案有多接近。 该测试由图灵在其1950年的论文“ 计算机械和智能 ”中介绍,同时在曼彻斯特大学工作。它开头的话是:“我建议考虑这样一个问题,’机器可以思考吗?’ ”因为“思考”很难定义,图灵选择“用另一个与其密切相关的问题替换另一个问题”。以相对明确的词语表达。“ 图灵的新问题是:“是否有可以想象的数字电脑在仿制游戏中表现良好?” 图灵认为,这个问题实际上是可以回答的问题。

在论文的其余部分,他反对所有对“机器可以思考”这一命题的主要反对意见。自图灵首次引入他的测试以来,它已被证明具有很高的影响力和广泛的批评,并已成为人工智能哲学中的一个重要概念。

查看详情

 

扩展阅读

《Computing Machinery and Intelligence》英文版PDF 模仿游戏(豆瓣8.6分)

 

弱人工智能、强人工智能、超人工智能

 

弱人工智能(Weak AI)

弱人工智能也称限制领域人工智能(Narrow AI)或应用型人工智能(Applied AI),指的是专注于且只能解决特定领域问题的人工智能。

例如:AlphaGoSiriFaceID

扩展阅读:

Weak AI ——Wikipedia

Weak AI——Investopedia

 

强人工智能(Strong AI)

又称通用人工智能(Artificial General Intelligence)或完全人工智能(Full AI),指的是可以胜任人类所有工作的人工智能。

强人工智能具备以下能力

  • 存在不确定性因素时进行推理,使用策略,解决问题,制定决策的能力
  • 知识表示的能力,包括常识性知识的表示能力
  • 规划能力
  • 学习能力
  • 使用自然语言进行交流沟通的能力
  • 将上述能力整合起来实现既定目标的能力

扩展阅读:

What is the difference between strong-AI and weak-AI?——Stackexchange

 

超人工智能(Super Intelligence,缩写 ASI)

假设计算机程序通过不断发展,可以比世界上最聪明,最有天赋的人类还聪明,那么,由此产生的人工智能系统就可以被称为超人工智能。

扩展阅读:

THE MYTH OF A SUPERHUMAN AI——Wired

The Difference Between Artificial Intelligence, General Intelligence, And Super Intelligence——Coresystems

超级智能的致命赌博

机器学习 – machine learning | ML

机器学习、人工智能、深度学习是什么关系?

1956 年提出 AI 概念,短短3年后(1959) Arthur Samuel 就提出了机器学习的概念:

Field of study that gives computers the ability to learn without being explicitly programmed.

机器学习研究和构建的是一种特殊算法(而非某一个特定的算法),能够让计算机自己在数据中学习从而进行预测。

所以,机器学习不是某种具体的算法,而是很多算法的统称。

机器学习包含了很多种不同的算法,深度学习就是其中之一,其他方法包括决策树,聚类,贝叶斯等。

深度学习的灵感来自大脑的结构和功能,即许多神经元的互连。人工神经网络(ANN)是模拟大脑生物结构的算法。

不管是机器学习还是深度学习,都属于人工智能(AI)的范畴。所以人工智能、机器学习、深度学习可以用下面的图来表示:

人工智能、机器学习、深度学习的关系
人工智能、机器学习、深度学习的关系

详细了解人工智能:《“2019更新”什么是人工智能?(AI的本质+发展史+局限性)

详细了解深度学习:《一文看懂深度学习(白话解释+8个优缺点+4个典型算法)

面向所有人的机器学习科普大全

 

什么是机器学习?

在解释机器学习的原理之前,先把最精髓的基本思路介绍给大家,理解了机器学习最本质的东西,就能更好的利用机器学习,同时这个解决问题的思维还可以用到工作和生活中。

机器学习的基本思路

  1. 把现实生活中的问题抽象成数学模型,并且很清楚模型中不同参数的作用
  2. 利用数学方法对这个数学模型进行求解,从而解决现实生活中的问题
  3. 评估这个数学模型,是否真正的解决了现实生活中的问题,解决的如何?

无论使用什么算法,使用什么样的数据,最根本的思路都逃不出上面的3步!

机器学习的基本思路
机器学习的基本思路

当我们理解了这个基本思路,我们就能发现:

不是所有问题都可以转换成数学问题的。那些没有办法转换的现实问题 AI 就没有办法解决。同时最难的部分也就是把现实问题转换为数学问题这一步。

 

机器学习的原理

下面以监督学习为例,给大家讲解一下机器学习的实现原理。

假如我们正在教小朋友识字(一、二、三)。我们首先会拿出3张卡片,然后便让小朋友看卡片,一边说“一条横线的是一、两条横线的是二、三条横线的是三”。

机器学习原理说明1

不断重复上面的过程,小朋友的大脑就在不停的学习。

机器学习原理说明2

当重复的次数足够多时,小朋友就学会了一个新技能——认识汉字:一、二、三。

机器学习原理说明3

我们用上面人类的学习过程来类比机器学习。机器学习跟上面提到的人类学习过程很相似。

  • 上面提到的认字的卡片在机器学习中叫——训练集
  • 上面提到的“一条横线,两条横线”这种区分不同汉字的属性叫——特征
  • 小朋友不断学习的过程叫——建模
  • 学会了识字后总结出来的规律叫——模型

通过训练集,不断识别特征,不断建模,最后形成有效的模型,这个过程就叫“机器学习”!

机器学习原理说明4

 

监督学习、非监督学习、强化学习

机器学习根据训练方法大致可以分为3大类:

  1. 监督学习
  2. 非监督学习
  3. 强化学习

除此之外,大家可能还听过“半监督学习”之类的说法,但是那些都是基于上面3类的变种,本质没有改变。

 

监督学习

监督学习是指我们给算法一个数据集,并且给定正确答案。机器通过数据来学习正确答案的计算方法。

举个栗子:

我们准备了一大堆猫和狗的照片,我们想让机器学会如何识别猫和狗。当我们使用监督学习的时候,我们需要给这些照片打上标签。

将打好标签的照片用来训练
将打好标签的照片用来训练

我们给照片打的标签就是“正确答案”,机器通过大量学习,就可以学会在新照片中认出猫和狗。

当机器遇到新的小狗照片时就能认出他
当机器遇到新的小狗照片时就能认出他

这种通过大量人工打标签来帮助机器学习的方式就是监督学习。这种学习方式效果非常好,但是成本也非常高。

了解更多关于 监督学习

 

非监督学习

非监督学习中,给定的数据集没有“正确答案”,所有的数据都是一样的。无监督学习的任务是从给定的数据集中,挖掘出潜在的结构。

举个栗子:

我们把一堆猫和狗的照片给机器,不给这些照片打任何标签,但是我们希望机器能够将这些照片分分类。

将不打标签的照片给机器
将不打标签的照片给机器

通过学习,机器会把这些照片分为2类,一类都是猫的照片,一类都是狗的照片。虽然跟上面的监督学习看上去结果差不多,但是有着本质的差别:

非监督学习中,虽然照片分为了猫和狗,但是机器并不知道哪个是猫,哪个是狗。对于机器来说,相当于分成了 A、B 两类。

机器可以将猫和狗分开,但是并不知道哪个是猫,哪个是狗
机器可以将猫和狗分开,但是并不知道哪个是猫,哪个是狗
了解更多关于 非监督学习

 

强化学习

强化学习更接近生物学习的本质,因此有望获得更高的智能。它关注的是智能体如何在环境中采取一系列行为,从而获得最大的累积回报。通过强化学习,一个智能体应该知道在什么状态下应该采取什么行为。

最典型的场景就是打游戏。

2019年1月25日,AlphaStar(Google 研发的人工智能程序,采用了强化学习的训练方式) 完虐星际争霸的职业选手职业选手“TLO”和“MANA”。新闻链接

了解更多关于 强化学习

 

机器学习实操的7个步骤

通过上面的内容,我们对机器学习已经有一些模糊的概念了,这个时候肯定会特别好奇:到底怎么使用机器学习?

机器学习在实际操作层面一共分为7步:

  1. 收集数据
  2. 数据准备
  3. 选择一个模型
  4. 训练
  5. 评估
  6. 参数调整
  7. 预测(开始使用)
机器学习的7个步骤
机器学习的7个步骤

假设我们的任务是通过酒精度和颜色来区分红酒和啤酒,下面详细介绍一下机器学习中每一个步骤是如何工作的。

案例目标:区分红酒和啤酒
案例目标:区分红酒和啤酒

 

步骤1:收集数据

我们在超市买来一堆不同种类的啤酒和红酒,然后再买来测量颜色的光谱仪和用于测量酒精度的设备。

这个时候,我们把买来的所有酒都标记出他的颜色和酒精度,会形成下面这张表格。

颜色 酒精度 种类
610 5 啤酒
599 13 红酒
693 14 红酒

这一步非常重要,因为数据的数量和质量直接决定了预测模型的好坏。

 

步骤2:数据准备

在这个例子中,我们的数据是很工整的,但是在实际情况中,我们收集到的数据会有很多问题,所以会涉及到数据清洗等工作。

当数据本身没有什么问题后,我们将数据分成3个部分:训练集(60%)、验证集(20%)、测试集(20%),用于后面的验证和评估工作。

数据要分为3个部分:训练集、验证集、测试集
数据要分为3个部分:训练集、验证集、测试集

关于数据准备部分,还有非常多的技巧,感兴趣的可以看看《AI 数据集最常见的6大问题(附解决方案)

 

步骤3:选择一个模型

研究人员和数据科学家多年来创造了许多模型。有些非常适合图像数据,有些非常适合于序列(如文本或音乐),有些用于数字数据,有些用于基于文本的数据。

在我们的例子中,由于我们只有2个特征,颜色和酒精度,我们可以使用一个小的线性模型,这是一个相当简单的模型。

 

步骤4:训练

大部分人都认为这个是最重要的部分,其实并非如此~ 数据数量和质量、还有模型的选择比训练本身重要更多(训练知识台上的3分钟,更重要的是台下的10年功)。

这个过程就不需要人来参与的,机器独立就可以完成,整个过程就好像是在做算术题。因为机器学习的本质就是将问题转化为数学问题,然后解答数学题的过程

 

步骤5:评估

一旦训练完成,就可以评估模型是否有用。这是我们之前预留的验证集和测试集发挥作用的地方。评估的指标主要有 准确率、召回率、F值。

这个过程可以让我们看到模型如何对尚未看到的数是如何做预测的。这意味着代表模型在现实世界中的表现。

 

步骤6:参数调整

完成评估后,您可能希望了解是否可以以任何方式进一步改进训练。我们可以通过调整参数来做到这一点。当我们进行训练时,我们隐含地假设了一些参数,我们可以通过认为的调整这些参数让模型表现的更出色。

 

步骤7:预测

我们上面的6个步骤都是为了这一步来服务的。这也是机器学习的价值。这个时候,当我们买来一瓶新的酒,只要告诉机器他的颜色和酒精度,他就会告诉你,这时啤酒还是红酒了。

YouTube 上有一个视频介绍了这7个步骤 The 7 Steps of Machine Learning(需要科学上网)

15种经典机器学习算法

ner“>

算法 训练方式
线性回归 监督学习
逻辑回归 监督学习
线性判别分析 监督学习
决策树 监督学习
朴素贝叶斯 监督学习
K邻近 监督学习
学习向量量化 监督学习
支持向量机 监督学习
随机森林 监督学习
AdaBoost 监督学习
高斯混合模型 非监督学习
限制波尔兹曼机 非监督学习
K-means 聚类 非监督学习
最大期望算法 非监督学习

面向所有人的机器学习科普大全

 

百度百科+维基百科

百度百科版本

机器学习(Machine Learning, ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。

专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。 它是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域,它主要使用归纳、综合而不是演绎。

查看详情

 

维基百科版本

机器学习是利用计算机算法和统计模型是计算机系统使用,逐步提高完成特定任务的能力。

机器学习建立样本数据的数学模型,称为“ 训练数据 ”,以便在不明确编程以执行任务的情况下进行预测或决策。机器学习算法用于电子邮件过滤,网络入侵者检测和计算机视觉的应用,开发用于执行任务的特定指令的算法是不可行的。机器学习与计算统计密切相关,计算统计侧重于使用计算机进行预测。数学优化的研究为机器学习领域提供了方法,理论和应用领域。数据挖掘是机器学习中的一个研究领域,侧重于通过无监督学习进行探索性数据分析。在跨业务问题的应用中,机器学习也被称为预测分析。

查看详情

 

补充资料2:优质扩展阅读

人工智能 – Artificial intelligence | AI

理解人工智能的本质

人工智能(AI)已经走入了普通大众的视野,我们在生活中可以看到很多跟 AI 相关的产品。比如 Siri、AI 美颜、AI 换脸…

虽然大家听得多,但是大部分人并不了解 AI,甚至存在一些误解。本文将不涉及任何技术细节,帮助所有人理解人工智能的本质。

 

什么是人工智能?

很多人对人工智能都会存在一些误解:

  1. 电影里的机器人就是人工智能的典型代表
  2. 人工智能好像是无所不能的
  3. 人工智能未来会威胁到人类的生存
  4. ……

大家之所以对人工智能存在很多误解,主要是因为大家只是看到一些人的言论,但是并不了解 AI 的基本原理,本文就帮助大家理解 AI 的基本原理,事物的本质往往并没有大家说的那么复杂。

我们用传统软件和人工智能进行比较,有了参照系就更容易理解一些。

 

传统软件 VS 人工智能


传统软件

传统软件是“if-then”的基本逻辑,人类通过自己的经验总结出一些有效的规则,然后让计算机自动的运行这些规则。传统软件永远不可能超越人类的知识边界,因为所有规则都是人类制定的。

简单的说:传统软件是“基于规则”的,需要人为的设定条件,并且告诉计算机符合这个条件后该做什么。

这种逻辑在处理一些简单问题时非常好用,因为规则明确,结果都是可预期的,程序员就是软件的上帝。

但是现实生活中充满了各种各样的复杂问题,这些问题几乎不可能通过制定规则来解决,比如人脸识别通过规则来解决效果会很差。

传统软件是基于规则的逻辑

人工智能

人工智能现在已经发展出很多不同分支,技术原理也多种多样,这里只介绍当下最火的深度学习。

深度学习的技术原理跟传统软件的逻辑完全不同:

机器从“特定的”大量数据中总结规律,归纳出某些“特定的知识”,然后将这种“知识”应用到现实场景中去解决实际问题。

这就是人工智能发展到现阶段的本质逻辑。而人工智能总结出来的知识并不是像传统软件一样,可以直观精确的表达出来。它更像人类学习到的知识一样,比较抽象,很难表达。

人工智能逻辑:从数据中归纳知识

上面的说法还是比较抽象,下面通过几个方面来帮助大家彻底搞明白:

 

人工智能是一种工具

AI 跟我们使用的锤子、汽车、电脑……都一样,其本质都是一种工具。

工具必须有人用才能发挥价值,如果他们独立存在是没有价值的,就想放在工具箱里的锤子一样,没有人挥舞它就没有任何价值。

人工智能本质是一种工具

人工智能这种工具之所以全社会都在说,是因为它大大扩展了传统软件的能力边界。之前有很多事情计算机是做不了的,但是现在人工智能可以做了。

归功于摩尔定律,计算机的能力呈指数级的上涨,只要是计算机能解参与的环节,生产力都得到了大幅提升,而人工智能让更多的环节可以搭上摩尔定律的快车,所以这种改变是意义非凡的。

但是不管怎么变,传统软件和人工智能都是工具,是为了解决实际问题而存在的。这点并没有变化。

 

人工智能只解决特定问题

《终结者》《黑客帝国》…很多电影里都出现了逆天的机器人,这种电影让大家有一种感觉:人工智能好像是无所不能的。

实际情况是:现在的人工智还处在单一任务的阶段。

人工智能目前只能处理单一任务

单一任务的模式。

打电话用座机、玩游戏用游戏机、听音乐用MP3、开车用导航…

多任务模式

这个阶段类似智能手机,在一台手机上可以安装很多 App,做很多事情。

但是这些能力还是相互独立的,在旅行App上定好机票后,需要自己用闹钟App定闹钟,最后需要自己用打车App叫车。多任务模式只是单一任务模式的叠加,离人类智慧还差的很远。

融会贯通

你在跟朋友下围棋,你发现朋友的心情非常不好,你本来可以轻松获胜,但是你却故意输给了对方,还不停的夸赞对方,因为你不想让这个朋友变得更郁闷,更烦躁。

在这件小事上,你就用到了多种不同的技能:情绪识别、围棋技能、交流沟通、心理学…

但是大名鼎鼎的 AlphaGo 绝对不会这么做。不管对方处在什么情况下,哪怕输了这盘棋会丧命,AlphaGo 也会无情的赢了这场比赛,因为它除了下围棋啥都不会!

只有将所有的知识形成网状结构,才能做到融会贯通。例如:商业领域可以运用军事上的知识,经济学也可以用到生物学的知识。

 

知其然,但不知所以然

当下的人工智能是从大量数据中总结归纳知识,这种粗暴的“归纳法”有一个很大的问题是:

并不关心为什么

人工智能不关心为什么

庞氏骗局类的诈骗手段就充分利用了这一点!

  • 它利用超高的回报来吸引韭菜,然后让早起参与的所有人都转到钱;
  • 当旁观者发现所有参与者都真实赚到了钱,就简单的归纳为:历史经验说明这个靠谱。
  • 于是越来越多的人眼红,加入,直到有一天骗子跑路。

当我们用逻辑来推导一下这个事情就能得出骗子的结论:

  • 这么高的回报并不符合市场规律
  • 稳赚不赔?我不需要承担高回报的高风险?好像不太合理
  • 为什么这么好的事情会落在我头上?好像不太对劲

正是因为当下的人工智能是建立在“归纳逻辑”上的,所以也会犯很低级的错误

人工只能也会犯低级错误

  • 左:摩托车的遮挡让 AI 把一只猴子误认为人类。
  • 中:自行车的遮挡让 AI 把猴子误认为人类,同时丛林背景导致 AI 将自行车把手误认为是鸟。
  • 右:吉他把猴子变成了人,而丛林把吉他变成了鸟

上图显示了在一张丛林猴子的照片中 ps 上一把吉他的效果。这导致深度网络将猴子误认为人类,同时将吉他误认为鸟,大概是因为它认为人类比猴子更可能携带吉他,而鸟类比吉他更可能出现在附近的丛林中。

也正是因为归纳逻辑,所以需要依赖大量的数据。数据越多,归纳出来的经验越具有普适性。

 

人工智能的发展历史

AI 不是什么全新的东西,他已经发展了大几十年了!下面我们介绍一下最具代表性的3个发展阶段。

人工智能发展历史

上图是从1950年至2017年之间,人工智能领域出现的一些里程碑式的事件。总结下来会分为3大阶段:

第一次浪潮(非智能对话机器人)

20世纪50年代到60年代

1950年10月,图灵提出了人工智能(AI)的概念,同时提出了图灵测试来测试 AI。

图灵测试提出没有几年,人们就看到了计算机通过图灵测试的“曙光”。

1966年,心理治疗机器人 ELIZA 诞生

那个年代的人对他评价很高,有些病人甚至喜欢跟机器人聊天。但是他的实现逻辑非常简单,就是一个有限的对话库,当病人说出某个关键词时,机器人就回复特定的话。

第一次浪潮并没有使用什么全新的技术,而是用一些技巧让计算机看上去像是真人,计算机本身并没有智能。

 

第二次浪潮(语音识别)

20世纪80年代到90年代

在第二次浪潮中,语音识别是最具代表性的几项突破之一。核心突破原因就是放弃了符号学派的思路,改为了统计思路解决实际问题。

在《人工智能》一书中,李开复详细介绍了这个过程,他也是参与其中的重要人物之一。

第二次浪潮最大的突破是改变了思路,摒弃了符号学派的思路,转而使用了统计学思路解决问题。

 

第三次浪潮(深度学习+大数据)

21世纪初

2006年是深度学习发展史的分水岭。杰弗里辛顿在这一年发表了《一种深度置信网络的快速学习算法》,其他重要的深度学习学术文章也在这一年被发布,在基本理论层面取得了若干重大突破。

之所以第三次浪潮会来主要是2个条件已经成熟:

2000年后互联网行业飞速发展形成了海量数据。同时数据存储的成本也快速下降。使得海量数据的存储和分析成为了可能。

GPU 的不断成熟提供了必要的算力支持,提高了算法的可用性,降低了算力的成本。

深度学习是当下的主流技术

在各种条件成熟后,深度学习发挥出了强大的能力。在语音识别、图像识别、NLP等领域不断刷新纪录。让 AI 产品真正达到了可用(例如语音识别的错误率只有6%,人脸识别的准确率超过人类,BERT在11项表现中超过人类…)的阶段。

第三次浪潮来袭,主要是因为大数据和算力条件具备,这样深度学习可以发挥出巨大的威力,并且 AI 的表现已经超越人类,可以达到“可用”的阶段,而不只是科学研究。

人工智能3次浪潮的不同之处

  1. 前两次热潮是学术研究主导的,第三次热潮是现实商业需求主导的。
  2. 前两次热潮多是市场宣传层面的,而第三次热潮是商业模式层面的。
  3. 前两次热潮多是学术界在劝说政府和投资人投钱,第三次热潮多是投资人主动向热点领域的学术项目和创业项目投钱。
  4. 前两次热潮更多时提出问题,第三次热潮更多时解决问题。

想进一步了解 AI 的历史,推荐阅读李开复的《人工智能》,上面关于3次浪潮的内容都摘抄自这本书。

 

人工智能不能做什么?

人工智能的3个级别

在探寻 AI 的边界时,我们可以先简单粗暴的把 AI 分为3个级别:

  1. 弱人工智能
  2. 强人工智能
  3. 超人工智能

人工智能的3个级别:弱人工智能、强人工智能、超人工智能

弱人工智能

弱人工智能也称限制领域人工智能(Narrow AI)或应用型人工智能(Applied AI),指的是专注于且只能解决特定领域问题的人工智能。

例如:AlphaGo、Siri、FaceID……

强人工智能

又称通用人工智能(Artificial General Intelligence)或完全人工智能(Full AI),指的是可以胜任人类所有工作的人工智能。

强人工智能具备以下能力:

  • 存在不确定性因素时进行推理,使用策略,解决问题,制定决策的能力
  • 知识表示的能力,包括常识性知识的表示能力
  • 规划能力
  • 学习能力
  • 使用自然语言进行交流沟通的能力
  • 将上述能力整合起来实现既定目标的能力

超人工智能

假设计算机程序通过不断发展,可以比世界上最聪明,最有天赋的人类还聪明,那么,由此产生的人工智能系统就可以被称为超人工智能。

我们当前所处的阶段是弱人工智能,强人工智能还没有实现(甚至差距较远),而超人工智能更是连影子都看不到。所以“特定领域”目前还是 AI 无法逾越的边界。

 

人工智能的能力边界是什么?

如果在深入一点,从理论层面来解释 AI 的能力边界,就要把图灵大师搬出来了。图灵在上世纪30年代中期,就在思考3个问题:

  1. 世界上是否所有数学问题都有明确的答案?
  2. 如果有明确的答案,是否可以通过有限的步骤计算出答案?
  3. 对于那些有可能在有限步骤计算出来的数学问题,能否有一种假象的机械,让他不断运动,最后当机器停下来的时候,那个数学问题就解决了?

图灵还真设计出来一套方法,后人称它为图灵机。今天所有的计算机,包括全世界正在设计的新的计算机,从解决问题的能力来讲,都没有超出图灵机的范畴。

(大家都是地球人,差距怎么就这么大呢???)

通过上面的3个问题,图灵已经划出了界限,这个界限不但适用于今天的 AI ,也适用于未来的 AI 

下面我们再进一步把边界清晰的描述一下:

人工智能的能力边界

  1. 世界上有很多问题,只有一小部分是数学问题
  2. 在数学问题里,只有一小部分是有解的
  3. 在有解的问题中,只有一部分是理想状态的图灵机可以解决的
  4. 在后一部分(图灵机可解决的部分),又只有一部分是今天的计算机可以解决的
  5. 而 AI 可以解决的问题,又只是计算机可以解决问题的一部分。

担心人工智能太强大?你想多了!

在一些特定场景中, AI 可以表现的很好,但是在大部分场景中,AI 并没有什么用。

 

人工智能会让你失业吗?

这个问题是大家最关心的问题,也是对每一个个体影响最大的问题。所以单独拿出来说一下。

首先,人工智能替代“部分人类的行为”是必然的趋势

每一项新技术或者新发明都会替代一部分劳动力:

报时间的工作——表

拉人力车的工作——汽车

挖井的工作——钻进机

……

需要注意的是,科技替代的只是某些特定的工作。挖井机只能帮你挖洞,但是无法帮你判断应该在哪里挖洞。

人工智能也是如此,它并不是针对某些职业或者某些人,而是替代一些具体的劳动行为。

其次,失业的同时会出现更好新职业

几次技术革命的历史告诉我们,虽然新技术的出现导致了部分人失业,但是同时也会产生很多新的职业。被替代的工作往往是低效的,而创造出来的工作往往更高效。想想拉人力车,再想想开汽车。

当人工智能解放了一部分劳动力,这部分劳动力就可以做更有价值,更有意思的事情。

不要怕!用好 AI 是一种超级技能

上文说过2个观点:

  1. 人工智能的本质是工具,需要人来用它
  2. 人工智能替代的不是人,而是某些工作环节

所以,千万不要怕人工智能取代自己,你应该主动去学习AI,成为最早会用AI的人,成为能把AI用好的人

想想20年前会使用电脑和网络的人,他们在那时代是非常稀缺的,所以他们赚到了互联网时代的红利。同样的道理,智能时代的红利将属于会用AI的人。

 

哪些工作会被人工智能替代?

李开复提出过一个判断依据:

如果一项工作,它做决策的时间在 5 秒钟以内,那么大概率是会别人工智能取代的。

容易被人工智能替代的4个工作特征

这种工作有4个特点:

  1. 做决策所需要的信息量不大
  2. 做决策的过程并不复杂,逻辑简单
  3. 能独自完成,不需要协作
  4. 重复性工作

很难被人工智能替代的技能

科学家总结出了3个人工智能很难替代的技能:

  1. 社交智慧(洞察力、谈判技巧、同理心…)
  2. 创造力(原创力、艺术审美…)
  3. 感知和操作能力(手指灵敏度、协调操作能力、应付复杂环境的能力…)

 

如何迎接智能时代?

人工智能将像工业时代一样,席卷全球。这种情况下,我们要做的不是逃避,而是拥抱这种变化。下面给大家一些具体的建议:

  1. 了解智能时代的底层逻辑和基本原理,不需要学习写代码,但是需要知道可能会发生什么,不可能发生什么。
  2. 人工智能未来将像计算机一样渗透到各行各业,你要尽量了解人工智能,学习如何利用他解决现有的问题,成为早期使用人工智能的人。
  3. 做好职业规划。不要选择三无职业(不需要社交、不需要创造力、不需要强感知和操作能力)

 

总结

人工智能的基本原理:机器从“特定的”大量数据中总结规律,形成某些“特定的知识”,然后将这种“知识”应用到现实场景中去解决实际问题。

在这个基本原理的基础上,有3个特征:

  1. 人工智能本质上是一种工具
  2. 人工智能技能只能解决特定的问题,而不是什么都能做
  3. 人工智能属于归纳逻辑,可以告诉你是什么,但是不能告诉你为什么

 

到目前为止,人工智能经历了3次浪潮:

  1. 20世纪50年代到60年代:非智能对话机器人
  2. 20世纪80年代到90年代:语音识别
  3. 21世纪初:深度学习+大数据

 

人工智能分为3个级别:

  1. 弱人工智能
  2. 强人工智能
  3. 超人工智能

 

在失业问题上,人工智能的确会替代部分人类的工作,不过在替代的同时也会出现一些新的更有价值的工作。未来不容易被人工智能替代的技能有3点:

  1. 社交智慧(洞察力、谈判技巧、同理心…)
  2. 创造力(原创力、艺术审美…)
  3. 感知和操作能力(手指灵敏度、协调操作能力、应付复杂环境的能力…)

 

“附”2020 AI 发展趋势

先回顾一下人工智能在 2019 年发生的重要变化:

  1. NLP 领域发生了重要的进展,BERT、GPT-2、XLNET 等预训练模型已经在产品中发挥重要作用。
  2. 基础建设进一步完善:PyTorch 的增长速度非常快,TensorFlow 深度结合 Keras。
  3. GAN 快速发展,出现了大众类的产品。DeepFake、ZAO 让大众群体体验到了 GAN 技术。
  4. 也是因为 DeepFake,人工智能的社会影响被大家所关注,全球都在完善 AI 相关的法律
  5. Auto-ML 降低了 AI 的门槛,让人工智能的部署变得非常容易。

2020年的发展趋势是什么?

  1. 5G 的落地将更多物理世界数字化,将进一步推动 AI 的发展和普及。
  2. 数据科学团队和商业团队的融合会更加紧密。
  3. 有可能看到多任务AI模型的发展,向通用人工智能进一步。
  4. 摆脱对数据的依赖,使用更少的数据获得效果优异的模型。
  5. NLP 领域实现更大的突破和发展。
  6. 提高 AI 的可解释性,解决黑箱问题
  7. 社会问题加剧,个人数据安全、隐私、算法偏见等问题的讨论越来越多。

更多2019年的重要里程碑和2020年的发展趋势可以看看下面2篇文章:

人工智能、机器学习、深度学习在2019年的重要发展和2020的趋势(技术篇)

人工智能、机器学习、深度学习在2019年的重要发展和2020的趋势(研究篇)

 

百度百科+维基百科

百度百科版本
人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。
更多内容
维基百科版本
在计算机科学中,人工智能有时也称为机器智能,是机器所展示的智能。
更多内容