您想要了解的有关营销AI内容生成应用程序的所有信息
nlp
NLP 领域里的8 种文本表示方式及优缺点
文本表示( text representation)是NLP任务中非常基础,同时也非常重要的一部分。本文将介绍文本表示的发展历史及各方法的优缺点
BERT和Transformer到底学到了什么
BERT为什么能有这么好的效果,深入其原理本身,又究竟好在哪里?在AI ProCon 2019大会上,新浪微博机器学习团队AI Lab负责人张俊林为大家深入分享了《BERT和Transformer到底学到了什么?》
「59页PDF」自然语言处理 NLP 基本概念大全(免费下载)
easyai.tech 发现入门人工智能是一件很难的事情,尤其是对于非技术人员。
于是我们将国内外优秀的科普内容用最通俗易懂的方式整合到一起,专门针对非技术人员,让大家都能理解人工智能领域里的基本概念。
2019 最新的 Transformer 模型:XLNET,ERNIE 2.0和ROBERTA
大型预训练语言模型无疑是自然语言处理(NLP)最新研究进展的主要趋势。
回顾过去20年 NLP 的发展趋势
通过 ACL 的论文来看看过去20年,NLP 的发展趋势。
8个步骤解决90%的NLP问题
我们将从最简单的方法开始,然后转向更细微的解决方案,例如特征工程,单词向量和深度学习。
百度阅读理解技术研究及应用
本报告分为以下4个部分:1. 什么是机器阅读理解?2. 阅读理解技术的进步。3. 阅读理解的更多挑战。4. 百度阅读理解技术的研究工作
微软提出通用预训练模型MASS,自然语言生成任务超越BERT、GPT!
微软亚洲研究院的研究员在ICML 2019上提出了一个全新的通用预训练方法MASS,在序列到序列的自然语言生成任务中全面超越BERT和GPT。在微软参加的WMT19机器翻译比赛中,MASS帮助中-英、英-立陶宛两个语言对取得了第一名的成绩。