在这里插入图片描述

架构图

在这里插入图片描述
在单模态的基础上,加了新的模态,encoder后,通过mlp或者其他方式与text对齐,再输入大模型。如果需要生成新的膜套,可以再通过生成器。(此处与SD不太一样),chatGPT不会生成图片,可以对图片进行理解。

训练方式

一般多个阶段。预训练、指令微调、对齐微调(RLHF)。

  • 预训练是通用能力。使得图像对齐到llm表征空间,数据来源于互联网上的图像对。
  • 指令微调是专业能力,提升在下游任务上的性能。数据来源于VQA、OCR、目标检测等数据
  • 对齐微调是纠错能力,类似LLM通过强化学习、人工打分排序,使得输出符合人类要求

其他技术方向

多模态幻觉:可以增加图像分辨率、提高数据质量,图像token表征、图像文本的对齐方式等
多模态上下文学习:Flamingo通过在图文交错的数据上训练来提升模型关注上下文的能力。
多模态思维链:将复杂的问题分解为较简单的子问题,然后分别解决并汇总。
LLM 辅助的视觉推理:利用 LLM 强大的内嵌知识与能力,并借助其他工具,设计各种视觉推理系统,解决各种现实问题。

https://www.qbitai.com/2024/04/134649.html

Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐