多模态预训练模型简述
相关推荐
-
预训练模型最新综述:过去、现在和未来
©PaperWeekly 原创 · 作者 | 王馨月 学校 | 四川大学本科生 研究方向 | 自然语言处理 BERT.GPT 等大规模预训练模型(PTM)最近取得了巨大成功,成为人工智能领域的里程碑. ...
-
BERT新转变:面向视觉基础进行预训练| NeurIPS 2019论文解读
ViLBERT: Pretraining Task-Agnostic Visiolinguistic Representations for Vision-and-Language Tasks 论文作 ...
-
WenLan-10亿参数!别只玩GPT,来看看人大&中科院联手打造第一个大规模多模态中文预训练模型BriVL
▊ 写在前面 近年来,多模态预训练模型在视觉和语言之间架起了桥梁.然而,大多数研究都是通过假设文本和图像对之间存在很强的语义关联来对图像-文本对之间的跨模态交互进行显式建模.由于这种强假设在现实场景中 ...
-
端到端多模态理解的MDETR调制检测
重磅干货,第一时间送达 小黑导读 论文是学术研究的精华和未来发展的明灯.小黑决心每天为大家带来经典或者最新论文的解读和分享,旨在帮助各位读者快速了解论文内容.个人能力有限,理解难免出现偏差,建议对文章 ...
-
SimVLM:拒绝各种花里胡哨!CMU&Google提出弱监督极简VLP模型,在多个多模态任务上性能SOTA
本文介绍论文『SimVLM: Simple Visual Language Model Pretraining with Weak Supervision』,由 CMU&Google 提出弱监 ...
-
无需检测器提取特征!LeCun团队提出MDETR:实现真正的端到端多模态推理|ICCV 2021 Oral
作者丨小马 编辑丨极市平台 极市导读 本文提出了MDETR,一种端到端调制检测器,能够根据原始文本query直接来检测图像中的目标,基于Transformer的结构,通过在模型的早期阶段融合这两种模态 ...
-
ICML2021 | ALIGN:大力出奇迹,谷歌用18亿的图像-文本对训练了一个这样的模型
详细信息如下: 论文链接:https://arxiv.org/abs/2102.05918 项目链接:尚未开源 导言: 学习良好的视觉和视觉语言表征对于解决计算机视觉问题(图像检索.图像分类.视频理解 ...
-
MURAL:消除预训练模型的语言限制!Google提出跨语言的多模态、多任务检索模型MURAL
详细信息如下: 论文链接:https://arxiv.org/abs/2109.05125v1 项目链接:未开源 导言: 图像标题对和翻译对都提供了学习语言表示和语言之间联系的方法.作者在 MURAL ...
-
ICCV2021 Oral-TAU&Facebook提出了通用的Attention模型可解释性
0 写在前面 通过Self-Attention和Co-Attention机制,Transformer在多个多模态下游任务中达到了SOTA的性能.这些注意模块也在其他计算机视觉任务中发挥了作用,包括目标 ...
-
首篇「多模态摘要」综述论文
仅做学术分享,如有侵权,联系删除 转载于 :专知 [导读]多模态是文档内容的本质特征之一.来自印度理工等学者发布了首篇多模态摘要综述论文. 摘要 科技的新时代让人们可以方便地在各种平台上分享自己的观点 ...