刘群:预训练语言模型研究进展和趋势展望
相关推荐
-
论文解读:Bert原理深入浅出
Bert 自 Google 于 2018 年发表至今,一直给人们带来惊喜,期间也陆陆续续因为Bert出现的原因多了不少新的岗位,甚至公司 JD 上都明确表明必须懂 Bert. 它在 11 项自然语言处 ...
-
【每周NLP论文推荐】从预训练模型掌握NLP的基本发展脉络
读论文是做AI的人必需要下的功夫,所以咱们开通了专栏<每周NLP论文推荐>.本着有三AI的一贯原则,即系统性学习,所以每次的论文推荐也会是成系统的,争取每次能够把一个领域内的"故 ...
-
【NLP】GPT:第一个引入Transformer的预训练模型
目前两种最重要的预训练语言模型,一种是前面介绍过的BERT,另外一种就是GPT. GPT出了两个版本,GPT1.0和GPT2.0,GPT2.0相对于GPT1.0差别不大,可以认为是它的增强版.本篇介绍 ...
-
哈尔滨工业大学车万翔:自然语言处理新范式
来自:哈工大SCIR 5月13日-15日举办的CCF青年精英大会(YEF2021),特别组织思想秀,邀请各界贤达与业界青年共同探讨方略大事.作为CCF青年精英大会(YEF)最重要核心的环节之一,&qu ...
-
【技术综述】深度学习在自然语言处理中的应用发展史
本篇介绍深度学习在自然语言处理(NLP)中的应用,从词向量开始,到最新最强大的BERT等预训练模型,梗概性的介绍了深度学习近20年在NLP中的一些重大的进展. 作者&编辑 | 小Dream哥 ...
-
Facebook AI Research的XLM模型:将BERT扩展成跨语言模型
近年来,预训练语言模型的出现极大地推动了自然语言处理领域的发展.相较于普通的词向量,诸如ELMo, GPT, BERT将上下文信息也编码到词向量以及文本向量中,从而收获了比普通词向量更强的表达能力,在 ...
-
预训练语言模型fine-tuning近期进展概述
近年来,迁移学习改变了自然语言处理领域的范式,对预训练语言模型(PLM)进行微调(fine-tuning)已经成为了新的范式.本文主要梳理了近期的预训练语言模型做fine-tuning的进展. 另外, ...
-
2021年预训练语言模型及微调的最新进展
对预训练语言模型(LM)进行微调已成为在自然语言处理中进行迁移学习的事实上的标准.在过去的三年中(Ruder,2018),微调(Howard&Ruder,2018)取代了预训练embeddin ...
-
预训练语言模型关系图 必读论文列表,清华荣誉出品
项目作者:王晓智.张正 预训练语言模型(PLM)是 NLP 领域的一大热门话题.从 BERT 到 GPT2 再到 XLNet,各种预训练模型层出不穷,不少同学感叹,「大佬慢点,跟不上了--」那么,这么 ...
-
如何掌握好自然语言处理中的预训练语言模型?你需要读这本书
预训练语言模型属于人工智能领域中自然语言处理领域的一个细分,是自然语言处理领域的重要突破,得到了越来越广泛的关注,相关研究者和从业人员在实际应用的过程中,亟需一本理论翔实.代码细节充分的参考书.本次给 ...
-
刘建国:数字考古研究进展
数字考古是在计算机技术支持下,考古学研究中集成运用现代测绘.遥感.三维重建.地理信息系统.虚拟现实.数据库和网络等技术,充分采集和运用考古现场各种空间信息进行综合分析.研究的理论和方法,是信息时代考古 ...
-
NLP前沿预训练语言模型大赏
预训练模型可以分为以下三个大类: 自回归模型 自动编码模型 序列到序列模型 什么是自回归模型(auto-regressive model):经典的语言建模任务,根据已读取文本内容预测下一个单词.比如T ...
-
综述 | 三大路径,一文总览知识图谱融合预训练模型的研究进展
当前,预训练模型已是AI领域较为成熟的一项技术,但由于基于神经网络架构的模型本身不具有常识能力,在一些涉及逻辑推理和认知的任务上力有不逮. 近年来,知识图谱越来越受到人们的关注,知识图谱旨在提供一种复 ...
-
常用预训练语言模型(PTMs)总结
NLP工作站 16篇原创内容 公众号 从以下5个部分通过QA的方式进行总结:Transformer架构.Transformer-Encoder预训练语言模型.Transformer-Decoder预训 ...
-
字节跳动 | AMBERT:一种多粒度Tokenization的预训练语言模型
论文标题:AMBERT: A Pre-trained Language Model with Multi-Grained Tokenization(多粒度分词的预训练语言模型AMBERT) 作者:Xi ...
