自学内容网 自学内容网

多模态简单了解

1.文本编码

简介: 即通过embedding将字符向量化,进入模型即可。

2. ViT图像编码器

在这里插入图片描述
释义:

  1. 图片是由一个个像素点构成的,每个像素点是1-255的数,所以图片其实是天然的矩阵。
  2. 将图片切割成单独的小的部分,延展开,就和文本一样是一些序列,通过Patches,embedding成向量,并且加上位置信息position。
  3. 输入到transformer结构的编码器中,encoder。

2.1图像矩阵self-attention计算:

示例图如下:
在这里插入图片描述

3.Transformer多模态

简介: 即在图文的两种模态模型中,使用transformer的做法。

3.1CLIP 图文交互

在这里插入图片描述
释义:

  1. 即将图片和文本分布输入各自得编码器得到向量。
  2. 将图片和文本的向量进行相关性计算,这样就可以得到一个图片和文本匹配的模型。

作用: 文搜图的功能,以及得到两个较好的文本、图像编码器。

3.2 对比学习训练

在这里插入图片描述
释义:

  1. 通过图像和文本编码器后,得到各个样本的数据
  2. 进行图像和文本的关系计算,这里每一个图片都只有一个正样本,其他的都是负样本,可以得到一个区分识别图片内容的模型。

3.3 flamingo 图文交互

在这里插入图片描述
释义:

  1. 通过self-attention计算文本和图片中的关系时,将文本输入作为Q;图像输入作为K、V计算

示意图:
在这里插入图片描述

3.4 LLava 图文交互

在这里插入图片描述
释义: 即将文本和图像内容拼接在一起送入到self-attention中,即计算图片与图片、文本与文本、还包括图片与文本之间的关系。
在这里插入图片描述


原文地址:https://blog.csdn.net/m0_64531791/article/details/141997088

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!