为什么要做多任务学习(multi task learning)? 多任务学习有哪些好处: 单任务的训练目标可能 …
标签:nlp
信息抽取-关系抽取
ACL2020, CASREL [1] Motivation 早期的工作,将关系抽取视为pipeline的任务 …
transformer详解:transformer/ universal transformer/ transformer-XL
特别鸣谢@Mayouji在本文写作过程中的帮助 Attention机制在NLP领域的应用最早可以追朔到2014 …
论文笔记-语境重构
论文来自于华为和滑铁卢大学 该文章主要针对解决了汉语对话中语境重构的问题,即把代词、零代词等指称短语替换为它们 …
论文笔记-对话系统综述
本文是对论文“A Survey on Dialogue Systems: Recent Advances an …
词向量-ELMo介绍
Deep contextualized word representations获得了NAACL 2018的o …