NLP 训练及推理一体化工具(TurboNLPExp)
相关推荐
-
2019年上半年收集到的人工智能自然语言处理方向干货文章
2019年上半年收集到的人工智能自然语言处理方向干货文章 自然语言(NLP)发展史及相关体系 读了这篇文字,做年薪百万的NLP工程师 聚焦机器"读.写.说.译",探寻NLP未来之路 ...
-
2020上半年收集到的优质AI文章 – 自然语言处理
2020上半年收集到的优质AI文章 – 自然语言处理 自然语言处理的蓬勃发展及其未来 人工智能之自然语言处理初探 我所知道的中国NLP「破圈」十年 零基础入门NLP - 新闻文本分类 现代NLP中的零 ...
-
用TensorRT极致'榨干'GPU性能!C /Python高性能推理教程发布
部署是人工智能落地的最后一公里,但是这"一公里"往往并不好走.如何让模型落地复杂的软硬件环境,并充分实现最优的推理效果,一直是人工智能从业者们追求和努力的方向. 飞桨听见所有开发者 ...
-
【赠书】新书速递!基于Bert模型的自然语言处理实战
BERT模型是当今处理自然语言任务效果最好的模型.掌握了该模型,就相当于掌握了当今主流的NLP技术,今天要给大家介绍的书是基于Bert模型的自然语言处理实战. 本书内容 本书从零基础开始,介绍了 ...
-
【杂谈】当前模型量化有哪些可用的开源工具?
模型量化属于模型优化中的重要技术之一,是非常有效地提升模型推理速度的技术方案,那么当前有哪些可用的模型量化工具呢? 作者&编辑 | 言有三 1 Tensorflow Lite TensorFl ...
-
ACL 2019论文| 揭秘认知图谱!从多跳阅读理解问答开始
"机器的阅读理解与问答"一直以来被认为是"自然语言理解(NLU)"的核心问题之一,随着BERT等模型的兴起,单段落的简单阅读理解任务取得了重大突破:研究者将目光 ...
-
BERT、GPT-3们有了新名字:Percy Liang、李飞飞等发布200多页综述,阐述大模型机遇...
设为"星标",重磅干货,第一时间送达 转载自 | 机器之心 在一篇 200 多页的论文中,Percy Liang.李飞飞等斯坦福研究者系统阐述了大规模预训练模型背后的机遇与风险.他 ...
-
NeurIPS'20 | 通过文本压缩,让BERT支持长文本
这是今年清华大学及阿里巴巴发表在NIPS 2020上的一篇论文<CogLTX: Applying BERT to Long Texts>,介绍了如何优雅地使用bert处理长文本.作者同时开 ...
-
还在用全部token训练ViT?清华&UCLA提出token的动态稀疏化采样,降低inference时的计算量
详细信息如下: 论文链接:https://arxiv.org/abs/2106.02034 项目链接:https://github.com/raoyongming/DynamicViT 导言: 在Vi ...
-
【NLP】ALBERT:更轻更快的NLP预训练模型
目前在NLP领域,出彩的预训练模型的新工作,几乎都是基于BERT的改进,前面我们就介绍了XLNET.今天我来介绍一个更新的工作,相比于BERT,它更轻量,效果也要好. 作者&编辑 | 小Dre ...