COLING 2020 | CharBERT:字符敏感的预训练语言模型
相关推荐
-
Facebook AI Research的XLM模型:将BERT扩展成跨语言模型
近年来,预训练语言模型的出现极大地推动了自然语言处理领域的发展.相较于普通的词向量,诸如ELMo, GPT, BERT将上下文信息也编码到词向量以及文本向量中,从而收获了比普通词向量更强的表达能力,在 ...
-
亚马逊出品:非均匀扰动的对抗鲁棒性理论分析
©PaperWeekly 原创 · 作者|孙裕道 学校|北京邮电大学博士生 研究方向|GAN图像生成.情绪对抗样本生成 引言 该论文是关于对抗训练的理论性的文章.这篇论文吸引我的点在于它详细的对对抗扰 ...
-
中文NER最新屠榜力作——LEBERT
近年来,向模型中注入词汇信息进行词汇增强已经成为一种有效提升中文 NER 性能的方式.本文分享一篇新鲜出炉的来自 ACL 2021 的文章<Lexicon Enhanced Chinese Se ...
-
156页!NLPCC 2020《预训练语言模型回顾》讲义下载
声明:本文转载自 哈工大讯飞联合实验室 公众号 哈工大讯飞联合实验室(HFL)资深级研究员.研究主管崔一鸣受邀在NLPCC 2020会议做题为<Revisiting Pre-trained Mo ...
-
预训练语言模型关系图 必读论文列表,清华荣誉出品
项目作者:王晓智.张正 预训练语言模型(PLM)是 NLP 领域的一大热门话题.从 BERT 到 GPT2 再到 XLNet,各种预训练模型层出不穷,不少同学感叹,「大佬慢点,跟不上了--」那么,这么 ...
-
预训练语言模型fine-tuning近期进展概述
近年来,迁移学习改变了自然语言处理领域的范式,对预训练语言模型(PLM)进行微调(fine-tuning)已经成为了新的范式.本文主要梳理了近期的预训练语言模型做fine-tuning的进展. 另外, ...
-
如何掌握好自然语言处理中的预训练语言模型?你需要读这本书
预训练语言模型属于人工智能领域中自然语言处理领域的一个细分,是自然语言处理领域的重要突破,得到了越来越广泛的关注,相关研究者和从业人员在实际应用的过程中,亟需一本理论翔实.代码细节充分的参考书.本次给 ...
-
2021年预训练语言模型及微调的最新进展
对预训练语言模型(LM)进行微调已成为在自然语言处理中进行迁移学习的事实上的标准.在过去的三年中(Ruder,2018),微调(Howard&Ruder,2018)取代了预训练embeddin ...
-
NLP前沿预训练语言模型大赏
预训练模型可以分为以下三个大类: 自回归模型 自动编码模型 序列到序列模型 什么是自回归模型(auto-regressive model):经典的语言建模任务,根据已读取文本内容预测下一个单词.比如T ...
-
常用预训练语言模型(PTMs)总结
NLP工作站 16篇原创内容 公众号 从以下5个部分通过QA的方式进行总结:Transformer架构.Transformer-Encoder预训练语言模型.Transformer-Decoder预训 ...
-
字节跳动 | AMBERT:一种多粒度Tokenization的预训练语言模型
论文标题:AMBERT: A Pre-trained Language Model with Multi-Grained Tokenization(多粒度分词的预训练语言模型AMBERT) 作者:Xi ...
-
中文预训练语言模型回顾
论文名称:Revisiting Pre-trained Models for Chinese Natural Language Processing 论文作者:崔一鸣,车万翔,刘挺,秦兵,王士进,胡国 ...