站点图标 产品经理的人工智能学习库

对话周明:回望过去,展望未来,NLP有哪些发展趋势?

好文分享

好文分享

周明博士是微软亚洲研究院副院长、国际计算语言学协会(ACL)主席、中国计算机学会理事、中文信息技术专委会主任、术语工作委员会前任主任、中国中文信息学会常务理事,哈尔滨工业大学、天津大学、南开大学、中国科技大学、北航大学等多所学校博士导师。

以下为与周明博士的对话,机器之心根据对话内容做了不改变原意的精简和编辑,以飨读者。

机器之心:据Marekrei的统计,在过去一年(2018年),您参与发表的顶会论文数量在NLP+ML领域排名世界第一。您能否介绍一下您们团队在过去一年多的时间里取得了哪些成绩?

周明:总体来讲,去年对我们团队来说是一个大丰收年。我们取得的成就可以归结如下:

第一项成就就是阅读理解(英文简称 MRC)。我们先后分别在SQuAD 1.1和SQuAD 2.0都取得了第一名的成绩。2018年1月,我们提交的系统首次突破人类在SQuAD 1.1测试集的水平,后来又有其他几个公司也先后超越了人类分数。这些系统体现了阅读理解的突破进展。最近我们在 SQuAD 2.0上,又超越了其他公司,获得了第一名。另外,在一个交互式、多轮 MRC 的系统CoQA上,我们最近提交(也是首次提交)的结果,也获得了第一名。

第二项成就是神经网络机器翻译(NMT)。我们在通用新闻报道测试集newstest2017的中-英测试集上,达到了可与人工翻译媲美的水平。这是首个在新闻报道的翻译质量和准确率上可以比肩人工翻译的翻译系统。这个是微软亚洲研究院自然语言计算组和机器学习组的同事们与微软总部的机器翻译产品部门通力合作所取得的一个成绩。我们提出了新的联合训练和对偶学习以便充分利用单语语料,然后发明了一致性规范和推敲网络改进解码能力。这些技术的综合应用大幅度提升了翻译水平。

第三项成就是语法检查(Grammar check)。我们用神经网络的编码和解码技术,采用了类似于神经网络机器翻译的技术,对语法检查进行了重要改进,可以自动生成训练语料,并多次解码逐轮求优。我们的结果在目前语法检查的三个公开评测集中都位列第一名。我们发表的相关ACL文章引起了业界的关注。

第四个就是基于神经网络的语音合成(TTS)。我们与微软的语音产品部门合作把神经网络机器翻译技术首次应用于TTS,大幅度提高了TTS质量。我们的技术在相关评测集合中表现最好。

除此之外,我们继续跟微软小冰合作。在原来的聊天引擎的基础上,大力提升了机器创作能力。比如写诗、谱曲、新闻等等,其中AI作词谱曲还上了中央电视台的《机智过人》节目,产生了很大的影响力。

机器之心:在过去几年中,您也一直积极参与到NLP顶会ACL的组织和管理当中,尤其今年您作为ACL的主席参与其中。在这个过程中,首先,您觉得从全局来看过去一年NLP领域有哪些新的进展呢?

周明:第一,神经网络深入到NLP各个领域之中,由此带来的崭新的神经NLP的建模、学习和推理方法,在我刚才所介绍的典型NLP任务中都取得了很好的进展;第二,以BERT为代表的一系列预训练模型得到了广泛应用,体现了大规模语言数据所蕴含的普遍语言规律和知识与具体应用场景巧妙结合的潜力;第三,低资源的NLP任务获得了广泛重视并得到了很好的发展。

除了以上技术上的显著进步,我想值得一提的是就中国的NLP的进展迅猛引起了世界瞩目。中国计算机学会和中文信息学会等主要学会都对中国NLP发展做出了重要贡献。两个学会各自都举办了很好的学术会议、讲习班或者暑期学校。除此之外两个学会还合作举办了“语言智能高峰会议”,去年已经是第三届了。由于这些学会的努力,再加上学校、公司的努力,中国的自然语言发展,从顶会(ACL、EMNLP、COLING 等)论文发表来看,过去五年来连续居于世界第二名;仅次于美国,远远高于其他国家。

这里多说一句就是,中国计算机学会的国际自然语言处理和中文计算大会(NLPCC),它的国际化程度、规模和水平目前正逐渐跟世界顶级的会议靠拢。其录取率在23%左右,参会人数在500人以上且逐年有20%的增长。同时,大会拥有国际化的大会组委会和程序委员会,工作语言是英文。可以期待它会成为中国发轫国际一流NLP学术大会。我们在NLPCC大会上曾经表述过这样的两个目标:2020年,中国的自然语言研究达到世界公认的先进水平;2030年,中国的自然语言研究达到世界公认的顶尖水平。我相信NLPCC大会能促进这两个目标的实现。

此外,去年ACL还成立了亚洲ACL分会(AACL)。我很感谢ACL执委会的支持以及亚太地区各个国家和地区NLP同仁的鼎力支持。AACL的成立标志着亚洲可以跟北美和欧洲在NLP发展上平头进步。AACL亚洲分会成立后,可以在亚洲组织很多很多类似于ACL这样的活动,来提升亚洲的NLP发展水平。

所以你看,从中国到亚洲到世界,整个趋势是在不同的层次进行努力;中国的进步非常迅速,引起世界一些研究者的关注。我在此前撰写的一篇文章中指出,NLP 进入了黄金的十年。这是因为未来国民经济发展和人工智能对NLP带来的庞大的需求,大规模的各类数据可供模型训练,以神经网络NLP为代表的各种新方法将一步步提升建模水平,各种评测和各种开放平台推动NLP研究和推广的能力,日益繁荣的AI和NLP领域促进专门人才的培养等等。所以,未来十年是非常值得期待的。

机器之心:刚才您提到中国NLP进展迅猛。过去一年,中国在研究方面有哪些比较重要的突破呢?

周明:除了我上面提到的微软亚洲研究院的那几项成果,中国的很多学校和公司也取得了很好的进展,比如中文的MRC,百度、科大讯飞跟有关学会或者高校合作都分别组织了大规模的中文的MRC评测。其影响力也超越了国界。其他国家只要做中文的MRC,也来参加这些评测。

中国的机器翻译,也就是以中文为中心的机器翻译,现在在世界上处于领先水平。中文为中心,就是汉语到其他语言,中文到日文、泰文、马来文等的翻译,这些都是以中文为中心的。围绕着一带一路沿线各个国家的语言翻译,中国有很多学校和公司都做了非常了不起的工作。在以中文为中心的研究和实用化方面,都取得了很好的进展。

在聊天和对话方面。中国也位居世界前列。以中国出现的微软小冰为代表的聊天系统带动了全世界范围的人工智能聊天系统的研究和开发。小冰平均聊天轮数达到23轮,而且实现了多模态聊天。除了小冰,中国的很多互联网、电子商务、手机公司都开展了聊天机器人和语音对话系统的研发。用于搜索引擎、语音助手、智能音箱、物联网、电子商务、智能家居等,

刚才这三个趋势,我认为代表了过去两三年来中国NLP的一些典型进步。

机器之心:往未来看的话,您觉得2019年哪些研究会有更大的研究潜力?

周明:如果要算的话,我觉得有三个点比较令人关注。

第一,刚才说的预训练模型。过去一年基本上大家都在谈论预训练模型。尤其BERT一出来,几乎所有任务都用BERT,结果是很多任务的水平都获得提升。所以未来的一年我可以预料的是,预训练模型会持续热起来。包括怎么训练一个更好的预训练模型,包括怎么把预训练模型更好地应用在某一项具体任务里面。

第二,就是低资源NLP任务的研究。在无语料或者小语料的场合如何做一定的学习、建模和推理?进一步开发半监督学习、无监督学习方法,利用Transfer Learning、Multi-task Learning等等方法,把其他语言、任务或者开放领域的模型巧妙嫁接或者借用到新的语言、任务或者领域中来,在某一个具体的任务(比如机器翻译、阅读理解、问答等)上更好地体现出来。

第三,就是所谓基于知识,甚至基于常识的一些应用。就是如何把知识和常识建立起来,如何巧妙地加入到模型里头,然后如何评测知识和常识所带来的效果。我认为未来这一年这个可能会成为一个关注点。

机器之心:您在刚才提到的署名文章《NLP将迎来黄金十年》一文中指出,NLP将向四个方面倾斜,分别是:1)将知识和常识引入到目前基于数据的学习系统中;2)低资源的NLP任务的学习方法;3)上下文建模、多轮语义理解;4)基于语义分析、知识和常识的可解释NLP。这些您刚才也有提到。您们团队这边在这些方面的研究思路是什么?

周明:首先方法论上,我刚才所说的预训练模型,还有半监督学习、Transfer learning、多任务学习,我们会尽全力推进。然后在具体应用上,我们会把机器翻译、阅读理解、问答、聊天对话,可能还有一些其他的方面作为一个出发点。然后针对这些具体的任务,把刚才所说的那些方法实施一下,看看效果,然后不断迭代。

你看我们有两条腿走路,一个是方法,一个是应用,让它俩不停的迭代。应用给很多方法提供了挑战,然后很多方法给应用提供了新的一些想法,两者可以相得益彰。

此外,一方面,我们期待项目做得好,应用本身做得好,可以服务于很多的用户,通过微软的产品也好,或者奉献给开源社区也好。利用用户的反馈持续调整和改进我们的研究方向和思路。另一方面,方法论上,我们希望在新的神经网络架构下能够清晰地描述出来一些任务(例如自然语言理解)的理论体系,这包括modeling、learning、reasoning。三个ing的东西实际上是自然语言作为一个学科,建立其背后最重要的技术体系和理论体系。现在在这三个方面都已经有很好的研究了,但是散落在很多地方,不太成完整的体系,所以我们希望通过做项目和研究,能够回答自然语言(尤其是基于神经网络计算的自然语言)的理论体系是什么。在理论体系支撑下,希望最后形成一个技术体系。我们将发布一些工具或者开源系统帮助国内外从事自然语言研究的人,让他们能够快速借鉴已有的方法,不再重复做研究,从而把时间用于去做一些他自己感兴趣的应用。

机器之心:在多模态融合方面您们团队也有较广泛的研究,发表了多篇论文。现在这个研究领域有什么进展?

周明:首先多模态融合这个事情非常有意思。由于神经网络的进展,使得多模态(语言、文字、图像、视频)的编码和解码可以在同一个框架下统一进行了。由于内在语义不一样,以前真的不太清楚语言分析的结果怎么与图像分析的结果一起结合、一起应用;现在则可以用一种模式来建模,编码、解码。从而实现端对端的学习,可以一体化畅通无阻。

第二,应用上,也相应地产生了很多有趣的应用,比如说capturing,就是对一个图像或视频理解之后用一段文字描写出来。过去一年或者两年有很多这样的研究。还有关于视频或者图像的问答,(CQA)。CQA 过去 1 到 2 年,有很多进展,包括我们组也做了一些CQA的工作,比如说引入常识知识来帮助提升CQA的水平。

第三,就是把图像识别的结果作为自然语言系统的输入,做写诗、作词、谱曲的工作。微软小冰写诗也是这样的工作。用户上传一个图片,小冰理解了这个图片,理解的结果可以用几个关键词代表。然后利用关键词再产生更多的联想关键词,进而把一首歌词或者一首诗生成出来。

机器之心:前几天看冯志伟老师的一个文章,标题为《语言学家在自然语言处理研究中大有可为》。语言学在NLP历史上起到什么样的作用?目前来看的话,语言学对NLP还有作用吗?

周明:冯老师写的文章是从语言学角度来看待这个问题,我觉得角度很好,我们也关注这些问题。

过去来讲,自然语言处理刚起步的时候都是基于语言学的,所以语言学对自然语言处理的发展起到了重要的奠基作用,包括基于规则的NLP系统对句法分析和机器翻译的重要贡献。

但这几年,我们也注意到,由于大数据(带标的数据)越来越容易拿到了,所以通过机器学习(统计机器学习或神经网络学习)的手段,就可以做端对端的训练。若只看结果的话,如果有充足的数据,似乎不用语言学的知识就能得到很好的结果。比如说基于神经网络的机器翻译就没有用到语言学的知识。这是目前大家都看到的一个趋势。

但这并不代表语言学真的没什么用处。举个例子,低资源的翻译,此时双语语料很小,用常规的机器学习来得到的机器翻译系统,其翻译质量和泛化能力都非常不足。这时候可以考虑把语言学的知识融入其中,希望得到一个更好的翻译结果。从这一点意义上看,在半监督学习或者低资源的自然语言任务中,语言学知识加上人类的领域知识,肯定是能发挥作用的。

但是,我认为现在还没有一个特别好的方法把两者融合起来,也没有把语言学知识或领域知识给予充分的表达,以体现它的能力。这方面在研究上还有欠缺,但恰恰也是未来的一个研究焦点。

语言学对NLP研究有没有用?我觉得需要case by case地去看待这个情况。不能简单地说有用或者无用,要针对具体任务、所能得到的资源(数据、知识和规则)的数目和质量,来综合考虑各种方法。比如数据足够充分,可以倾向于端对端的自动学习,数据不够充分,且具备可用的知识和规则,则没有理由不去利用知识和规则,以快速建立系统。当系统运行起来,需要考虑不停地追加数据、知识和用户的反馈以改进系统。所以一个实用的NLP系统,是数据、知识和用户一起磨炼而成的。

机器之心:我们注意到微软亚洲研究院从1998年到去年正好20年;而您是1999年加入微软,到2019年也正好20年。这期间有哪些让您觉得特别难忘的事情?

周明:去年微软亚洲研究院20周年,我们举办了一系列活动,邀请了很多老朋友(包括学术界的、工业界的)以及来自微软总部的同事们,大家聚在一起畅谈。这个时候正好是回顾过去,展望未来的时候。所以大家也就想,过去二十年到底发生了什么事,有哪些给我们留下深刻的印象。我这边也想了一下。

我想到的是,过去20年首先是一个不断发展的20年,整个微软亚洲研究院从无到有,从小到大,经历了一个波澜起伏的过程。有的时候我们发展很顺利,有的时候也经历了一些挫折。但是不管怎样,我们总是不断进步,发展得越来越好。

第二,我很荣幸经历了从第一届院长李开复到现在我们洪院长他们领导的所有过程。所以对我来讲,我既是这20年的亲历者、见证人,同时更有意义的是,我是一个受益者和学习者。这20年我学到了很多很多东西,我从清华加入到微软,发现确实有很多新鲜的东西值得学习。微软有很强的产品和市场团队,还有微软研究院以及微软亚洲研究院这很强的研究氛围。我作为一个员工,从各个角度获得了很好的学习和体验机会。具体来讲,无论研究方法、团队合作、产品意识、还有国内国外合作的境界。我觉得在这些方面都得到很好的历练。

如果说做的项目的话,举几个例子说说我们的历程。我们一开始是做微软的输入法,中文的和日文的。到了2004年开始做微软对联(注:微软亚洲研究院的NLP团队属于国内最早做对联和诗歌的),2008年到2012年左右我们做了必应词典,还有2012年的微软研究院创始人Rick Rashid在二十一世纪的计算大会上演示了实时语音机器翻译系统,最近两三年我们参与了微软小冰的合作。这几年我们还做了神经网络机器翻译,以及机器阅读理解等等。我觉得每一个项目都有我们自己的特点。从开始立项,经过不停的方案调整,实验不同的方法。这个过程中,每一个人都得到了很好的历练,也提升了自己的研究能力。回顾这些事情,经历了一个又一个的项目,我和我的同事们感到很骄傲、很自豪。

但是,我想把视角从单纯的研究项目本身,投射到关乎NLP发展的更宽阔的天地。实际上微软亚洲研究院过去的20年为提升全球NLP,尤其是中国的NLP,发挥了独到的作用。作为一个大公司,一个负责任的公司,不应该只想到自己,还应该想想它能否正面的帮助这个领域发展,帮助所在国家和地区在这个领域的发展。做一个有意义的贡献者。拿NLP这个领域来讲,微软中国研究院(后改名微软亚洲研究院)刚成立的时候,中国只有一篇ACL文章,是清华大学黄昌宁老师的研究组写的。

在1998年微软亚洲研究院成立之初,我们就制定了与有关学会、学校合作的计划,通过暑期学校、联合实验室、学术大会、各项大学合作项目等一揽子计划共同提升NLP的研究水平。我们过去20年,在NLP领域就培养了超过500名实习生、20名博士生、20名博士后。这些人绝大多数都去了学校或其他公司。这些人也都逐渐成为了所在单位的技术核心或者领导人物;他们又带动了更多人的成长。所以通过二十年,中国的NLP发展越来越好,已经连续五年在NLP顶会(例如ACL)论文数量排名世界第二。

现在中国各大公司的NLP组,有世界级的专家带领,也服务于世界级的任务,无论是文章发表还是产品,都是世界级的水平。这个事实背后,我想说跟与微软亚洲研究院在中国恰逢其时地推动了这个领域的发展有巨大的关系。

微软亚洲研究院号称IT界或人工智能界的黄埔军校;我们也可以自豪地说,在NLP领域我们也是黄埔军校。所以我每念于此,我都感到非常地骄傲和自豪。

本文转自公众号 微软研究院AI头条,原文地址

退出移动版