关于NLP相关技术全部在这里:预训练模型、图神经网络、模型压缩、知识图谱、信息抽取、序列模型、深度学...
相关推荐
-
(12条消息) 一文读懂BERT(原理篇)
一文读懂BERT(原理篇) 2018年的10月11日,Google发布的论文<Pre-training of Deep Bidirectional Transformers for Langua ...
-
【赠书】新书速递!基于Bert模型的自然语言处理实战
BERT模型是当今处理自然语言任务效果最好的模型.掌握了该模型,就相当于掌握了当今主流的NLP技术,今天要给大家介绍的书是基于Bert模型的自然语言处理实战. 本书内容 本书从零基础开始,介绍了 ...
-
小米在知识表示学习的探索与实践
编辑整理:孟航程 出品平台:DataFunTalk 导读:知识表示是知识获取与应用的基础,贯穿了小米知识图谱的构建与应用.本文将结合小米知识图谱的构建及小爱问答场景,介绍融合文本和知识图谱的知识表示学 ...
-
刘群:预训练语言模型研究进展和趋势展望
自2018年下半年开始,到现在为止,预训练语言模型的发展基本呈现爆发趋势,研究人员数目越来越多,研究方向也越来越广. 近日,在第十九届中国计算语言学大会(CCL2020)上,华为诺亚方舟实验室语音语义 ...
-
NLP任务增强:通过引入外部知识来提供额外信息
NewBeeNLP 永远有料,永远有趣 186篇原创内容 公众号 0.前言 NLP任务中,常见的做法是根据「当前输入」进行建模,进而设计出我们的模型,通常用到的信息只有「当前局部的信息」. 这和人类最 ...
-
ACL 2021 | 丁香园知识增强预训练模型
背景 使用预训练模型已经成为大部分NLP任务的标配,因此近年来有大量的工作围绕着如何提高预训练模型的质量.其中,引入外部知识无疑是最热门的话题之一.丁香园NLP联合华师大何晓丰老师团队,在今年的ACL ...
-
小白都能懂的推荐算法入门(三),FM、类别特征以及Embedding
大家好,上一期文章我们聊了FM模型在推荐系统当中起到的作用,以及它的一些缺点. 今天我们继续来聊FM,不过不是单纯聊FM的原理了,而是聊聊更深层次的方法论,以及FM家族的一些改进策略. Embeddi ...
-
想要年薪百万速来围观!机器学习面试宝典,超实用心法、功法、技法
温馨提示 ☟ 众所周知,在人工智能应用还没有全面爆发的今天,人工智能人才抢夺大战早已全面爆发.而频频爆出的人工智能领域高薪资也让我们这些门外汉望眼欲穿. 据悉,目前人工智能领域的薪资(月薪)最低20k ...
-
知识表示与融入技术前沿进展及应用
作者|李杨[1],李晶阳[1],牛广林[2],唐呈光[1],付彬[1],余海洋[1],孙健[1] 单位|阿里巴巴-达摩院-小蜜Conversational AI团队[1],北京航空航天大学计算机学院[ ...
-
【Github】NLPer-Interview: NLP 算法工程师相关的面试题
周末推荐一下老宋同学整理的Github项目:songyingxin/NLPer-Interview ,该仓库主要记录 NLP 算法工程师相关的面试题: https://github.com/songy ...
-
推荐 10 个经典的 NLP 项目!涉及预训练 Bert、知识图谱、智能问答、机器翻译、对话等
自然语言处理技术近几年发展非常快,像BERT.GPT-3.图神经网络.知识图谱等技术被大量应用于项目实践中. 今年大厂的NLP面试中对项目方面的考察深度也随之提升了很多,经常会被面试官揪着细节一步一步 ...
-
【年终总结】2019年有三AI NLP做了什么,明年要做什么?
时间不紧不慢的,从2019年6月中旬有三AI公众号开始发布自然语言处理(NLP)相关的文章以来,已是半年有余. 回头看看,NLP系列文章基本维持在了一周一到两篇的更新频率,基本上覆盖了NLP所需要聊到 ...
-
关于NLP相关技术全部在这里:预训练模型、信息抽取、文本生成、知识图谱、对话系统
我们正处在信息爆炸的时代.面对每天铺天盖地的网络资源和论文.很多时候我们面临的问题并不是缺资源,而是找准资源并高效学习.其次,即便网络上的资源非常多,学习是需要成本的,而且越有深度的内容越难找到好的学 ...
-
ENRIE:知识图谱与BERT相结合,为语言模型赋能助力
来自:朴素人工智能 感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红框中为已介绍的文章,绿框中为本期介绍的模型,欢迎大家留言讨论交流. E ...