您想要了解的有關營銷AI內容生成應用程序的所有信息
nlp
NLP 領域裡的8 種文本表示方式及優缺點
文本表示( text representation)是NLP任務中非常基礎,同時也非常重要的一部分。本文將介紹文本表示的發展歷史及各方法的優缺點
BERT和Transformer到底學到了什麼
BERT為什麼能有這麼好的效果,深入其原理本身,又究竟好在哪裡?在AI ProCon 2019大會上,新浪微博機器學習團隊AI Lab負責人張俊林為大家深入分享了《BERT和Transformer到底學到了什麼?》
「59頁PDF」自然語言處理 NLP 基本概念大全(免費下載)
easyai.tech 發現入門人工智能是一件很難的事情,尤其是對於非技術人員。
於是我們將國內外優秀的科普內容用最通俗易懂的方式整合到一起,專門針對非技術人員,讓大家都能理解人工智能領域裡的基本概念。
2019 最新的 Transformer 模型:XLNET,ERNIE 2.0和ROBERTA
大型預訓練語言模型無疑是自然語言處理(NLP)最新研究進展的主要趨勢。
回顧過去20年 NLP 的發展趨勢
通過 ACL 的論文來看看過去20年,NLP 的發展趨勢。
8個步驟解決90%的NLP問題
我們將從最簡單的方法開始,然後轉向更細微的解決方案,例如特徵工程,單詞向量和深度學習。
百度閱讀理解技術研究及應用
本報告分為以下4個部分:1. 什麼是機器閱讀理解?2. 閱讀理解技術的進步。3. 閱讀理解的更多挑戰。4. 百度閱讀理解技術的研究工作
微軟提出通用預訓練模型MASS,自然語言生成任務超越BERT、GPT!
微軟亞洲研究院的研究員在ICML 2019上提出了一個全新的通用預訓練方法MASS,在序列到序列的自然語言生成任務中全面超越BERT和GPT。在微軟參加的WMT19機器翻譯比賽中,MASS幫助中-英、英-立陶宛兩個語言對取得了第一名的成績。