大型预训练语言模型无疑是自然语言处理(NLP)最新研究进展的主要趋势。
Searching for NLP
60 Results
基于关系网络的视觉建模:有望替代卷积神经网络
他们的研究以及同期的一些其它工作表明这些模型也能广泛地用于视觉基本元素之间关系的建模,包括物体与物体间、物体与像素间、以及像素与像素间的关系,特别是在建模像素与像素间关系上,既能与卷积操作形成互补,甚至有望能取代卷积操作,实现最基本的图像特征提取。
如何有效的做数据预处理和特征工程?
如果你真的想避免你的机器学习模型产生垃圾结果的尴尬局面,你需要理解标题所暗示的“有效数据预处理和特征工程”的重要性。
百度阅读理解技术研究及应用
本报告分为以下4个部分:1. 什么是机器阅读理解?2. 阅读理解技术的进步。3. 阅读理解的更多挑战。4. 百度阅读理解技术的研究工作
微软提出通用预训练模型MASS,自然语言生成任务超越BERT、GPT!
微软亚洲研究院的研究员在ICML 2019上提出了一个全新的通用预训练方法MASS,在序列到序列的自然语言生成任务中全面超越BERT和GPT。在微软参加的WMT19机器翻译比赛中,MASS帮助中-英、英-立陶宛两个语言对取得了第一名的成绩。
选择正确的AI商业模式
什么是好的AI商业模式?AI商业模式跟SAAS有什么区别?