视觉语言模型详解

视觉语言模型可以同时从图像和文本中学习,因此可用于视觉问答、图像描述等多种任务。本文,我们将带大家一览视觉语言模型领域: 作个概述、了解其工作原理、搞清楚如何找到真命天“模”、如何对其进行推理以及如何使用最新版的 trl 轻松对其进行微调。

什么是视觉语言模型?

视觉语言模型是可以同时从图像和文本中学习的多模态模型,其属于生成模型,输入为图像和文本,输出为文本。大视觉语言模型具有良好的零样本能力,泛化能力良好,并且可以处理包括文档、网页等在内的多种类型的图像。其拥有广泛的应用,包括基于图像的聊天、根据指令的图像识别、视觉问答、文档理解、图像描述等。一些视觉语言模型还可以捕获图像中的空间信息,当提示要求其检测或分割特定目标时,这些模型可以输出边界框或分割掩模,有些模型还可以定位不同的目标或回答其相对或绝对位置相关的问题。现有的大视觉语言模型在训练数据、图像编码方式等方面采用的方法很多样,因而其能力差异也很大。

VLM 能力

开源视觉语言模型概述

Hugging Face Hub 上有很多开放视觉语言模型,下表列出了其中一些佼佼者。

  • 其中有基础模型,也有可用于对话场景的针对聊天微调的模型。
  • 其中一些模型具有“接地 (grounding )”功能,因此能够减少模型幻觉。
  • 除非另有说明,所有模型的训练语言皆为英语。
模型可否商用模型尺寸图像分辨率其它能力
LLaVA 1.6 (Hermes 34B)34B672x672
deepseek-vl-7b-base7B384x384
DeepSeek-VL-Chat7B384x384聊天
moondream2~2B378x378
CogVLM-base17B490x490
CogVLM-Chat17B490x490接地、聊天
Fuyu-8B8B300x300图像中的文本检测
KOSMOS-2~2B224x224接地、零样本目标检测
Qwen-VL4B448x448零样本目标检测
Qwen-VL-Chat4B448x448聊天
Yi-VL-34B34B448x448双语 (英文、中文)

寻找合适的视觉语言模型

有多种途径可帮助你选择最适合自己的模型。

视觉竞技场 (Vision Arena):西部世界加速的原理 是一个完全基于模型输出进行匿名投票的排行榜,其排名会不断刷新。在该竞技场上,用户输入图像和提示,会有两个匿名的不同的模型为其生成输出,然后用户可以基于他们的喜好选择一个输出。这种方式生成的排名完全是基于人类的喜好的。

视觉竞技场 (Vision Arena)

开放 VLM 排行榜 提供了另一种选择,各种视觉语言模型按照所有指标的平均分进行排名。你还可以按照模型尺寸、私有或开源许可证来筛选模型,并按照自己选定的指标进行排名。

开放 VLM 排行榜

VLMEvalKit 是一个工具包,用于在视觉语言模型上运行基准测试,开放 VLM 排行榜就是基于该工具包的。

还有一个评估套件是 LMMS-Eval,其提供了一个标准命令行界面,你可以使用 Hugging Face Hub 上托管的数据集来对选定的 Hugging Face 模型进行评估,如下所示:

|  | accelerate launch --num\_processes=8 -m lmms\_eval --model llava --model\_args pretrained="liuhaotian/llava-v1.5-7b" --tasks mme,mmbench\_en --batch\_size 1 --log\_samples --log\_samples\_suffix llava\_v1.5\_mme\_mmbenchen --output\_path ./logs/ |

视觉竞技场和开放 VLM 排行榜都仅限于提交给它们的模型,且需要更新才能添加新模型。如果你想查找其他模型,可以在 image-text-to-text 任务下浏览 hub 中的 模型。

在排行榜中,你会看到各种不同的用于评估视觉语言模型的基准,下面我们选择其中几个介绍一下。

MMMU

针对专家型 AGI 的海量、多学科、多模态理解与推理基准 (A Massive Multi-discipline Multimodal Understanding and Reasoning Benchmark for Expert AGI,MMMU) 是评估视觉语言模型的最全面的基准。它包含 11.5K 个多模态问题,这些问题需要大学水平的学科知识以及跨学科 (如艺术和工程) 推理能力。

MMBench

MMBench 由涵盖超过 20 种不同技能的 3000 道单选题组成,包括 OCR、目标定位等。论文还介绍了一种名为 CircularEval 的评估策略,其每轮都会对问题的选项进行不同的组合及洗牌,并期望模型每轮都能给出正确答案。

另外,针对不同的应用领域还有其他更有针对性的基准,如 MathVista (视觉数学推理) 、AI2D (图表理解) 、ScienceQA (科学问答) 以及 OCRBench (文档理解)。

技术细节

对视觉语言模型进行预训练的方法很多。主要技巧是统一图像和文本表征以将其输入给文本解码器用于文本生成。最常见且表现最好的模型通常由图像编码器、用于对齐图像和文本表征的嵌入投影子模型 (通常是一个稠密神经网络) 以及文本解码器按序堆叠而成。至于训练部分,不同的模型采用的方法也各不相同。

例如,LLaVA 由 CLIP 图像编码器、多模态投影子模型和 Vicuna 文本解码器组合而成。作者将包含图像和描述文本的数据集输入 GPT-4,让其描述文本和图像生成相关的问题。作者冻结了图像编码器和文本解码器,仅通过给模型馈送图像与问题并将模型输出与描述文本进行比较来训练多模态投影子模型,从而达到对齐图像和文本特征的目的。在对投影子模型预训练之后,作者把图像编码器继续保持在冻结状态,解冻文本解码器,然后继续对解码器和投影子模型进行训练。这种预训练加微调的方法是训练视觉语言模型最常见的做法。

视觉语言模型典型结构

将投影子模型输出与文本嵌入相串接

再举一个 KOSMOS-2 的例子,作者选择了端到端地对模型进行完全训练的方法,这种方法与 LLaVA 式的预训练方法相比,计算上昂贵不少。预训练完成后,作者还要用纯语言指令对模型进行微调以对齐。还有一种做法,Fuyu-8B 甚至都没有图像编码器,直接把图像块馈送到投影子模型,然后将其输出与文本序列直接串接送给自回归解码器。

大多数时候,我们不需要预训练视觉语言模型,仅需使用现有的模型进行推理,抑或是根据自己的场景对其进行微调。下面,我们介绍如何在 transformers 中使用这些模型,以及如何使用 SFTTrainer 对它们进行微调。

在 transformers 中使用视觉语言模型

你可以使用 LlavaNext 模型对 Llava 进行推理,如下所示。

首先,我们初始化模型和数据处理器。

|  | from transformers import LlavaNextProcessor, LlavaNextForConditionalGeneration |
|  | import torch |
|  |  |
|  | device = torch.device('cuda' if torch.cuda.is\_available() else 'cpu') |
|  | processor = LlavaNextProcessor.from\_pretrained("llava-hf/llava-v1.6-mistral-7b-hf") |
|  | model = LlavaNextForConditionalGeneration.from\_pretrained( |
|  | "llava-hf/llava-v1.6-mistral-7b-hf", |
|  |  torch\_dtype=torch.float16, |
|  |  low\_cpu\_mem\_usage=True |
|  | ) |
|  | model.to(device) |

现在,将图像和文本提示传给数据处理器,然后将处理后的输入传给 generate 方法。请注意,每个模型都有自己的提示模板,请务必根据模型选用正确的模板,以避免性能下降。

|  | from PIL import Image |
|  | import requests |
|  |  |
|  | url = "https://github.com/haotian-liu/LLaVA/blob/1a91fc274d7c35a9b50b3cb29c4247ae5837ce39/images/llava\_v1\_5\_radar.jpg?raw=true" |
|  | image = Image.open(requests.get(url, stream=True).raw) |
|  | prompt = "[INST] \nWhat is shown in this image? [/INST]" |
|  |  |
|  | inputs = processor(prompt, image, return\_tensors="pt").to(device) |
|  | output = model.generate(**inputs, max\_new\_tokens=100) |

调用 decode 对输出词元进行解码。

|  | print(processor.decode(output[0], skip\_special\_tokens=True)) |

使用 TRL 微调视觉语言模型

我们很高兴地宣布,作为一个实验性功能,TRL 的 SFTTrainer 现已支持视觉语言模型!这里,我们给出了一个例子,以展示如何在 llava-instruct 数据集上进行 SFT,该数据集包含 260k 个图像对话对。

llava-instruct 数据集将用户与助理之间的交互组织成消息序列的格式,且每个消息序列皆与用户问题所指的图像配对。

要用上 VLM 训练的功能,你必须使用 pip install -U trl 安装最新版本的 TRL。你可在 此处 找到完整的示例脚本。

|  | from trl.commands.cli\_utils import SftScriptArguments, TrlParser |
|  |  |
|  | parser = TrlParser((SftScriptArguments, TrainingArguments)) |
|  | args, training\_args = parser.parse\_args\_and\_config() |

初始化聊天模板以进行指令微调。

|  | LLAVA\_CHAT\_TEMPLATE = """A chat between a curious user and an artificial intelligence assistant. The assistant gives helpful, detailed, and polite answers to the user's questions. {% for message in messages %}{% if message['role'] == 'user' %}USER: {% else %}ASSISTANT: {% endif %}{% for item in message['content'] %}{% if item['type'] == 'text' %}{{ item['text'] }}{% elif item['type'] == 'image' %}{% endif %}{% endfor %}{% if message['role'] == 'user' %} {% else %}{{eos\_token}}{% endif %}{% endfor %}""" |

现在,初始化模型和分词器。

|  | from transformers import AutoTokenizer, AutoProcessor, TrainingArguments, LlavaForConditionalGeneration |
|  | import torch |
|  |  |
|  | model\_id = "llava-hf/llava-1.5-7b-hf" |
|  | tokenizer = AutoTokenizer.from\_pretrained(model\_id) |
|  | tokenizer.chat\_template = LLAVA\_CHAT\_TEMPLATE |
|  | processor = AutoProcessor.from\_pretrained(model\_id) |
|  | processor.tokenizer = tokenizer |
|  |  |
|  | model = LlavaForConditionalGeneration.from\_pretrained(model\_id, torch\_dtype=torch.float16) |

建一个数据整理器来组合文本和图像对。

|  | class LLavaDataCollator: |
|  | def \_\_init\_\_(self, processor): |
|  |  self.processor = processor |
|  |  |
|  | def \_\_call\_\_(self, examples): |
|  |  texts = [] |
|  |  images = [] |
|  | for example in examples: |
|  |  messages = example["messages"] |
|  |  text = self.processor.tokenizer.apply\_chat\_template( |
|  |  messages, tokenize=False, add\_generation\_prompt=False |
|  |  ) |
|  |  texts.append(text) |
|  |  images.append(example["images"][0]) |
|  |  |
|  |  batch = self.processor(texts, images, return\_tensors="pt", padding=True) |
|  |  |
|  |  labels = batch["input\_ids"].clone() |
|  | if self.processor.tokenizer.pad\_token\_id is not None: |
|  |  labels[labels == self.processor.tokenizer.pad\_token\_id] = -100 |
|  |  batch["labels"] = labels |
|  |  |
|  | return batch |
|  |  |
|  | data\_collator = LLavaDataCollator(processor) |

加载数据集。

|  | from datasets import load\_dataset |
|  |  |
|  | raw\_datasets = load\_dataset("HuggingFaceH4/llava-instruct-mix-vsft") |
|  | train\_dataset = raw\_datasets["train"] |
|  | eval\_dataset = raw\_datasets["test"] |

初始化 SFTTrainer ,传入模型、数据子集、PEFT 配置以及数据整理器,然后调用 train() 。要将最终 checkpoint 推送到 Hub,需调用 push_to_hub()

|  | from trl import SFTTrainer |
|  |  |
|  | trainer = SFTTrainer( |
|  |  model=model, |
|  |  args=training\_args, |
|  |  train\_dataset=train\_dataset, |
|  |  eval\_dataset=eval\_dataset, |
|  |  dataset\_text\_field="text", # need a dummy field |
|  |  tokenizer=tokenizer, |
|  |  data\_collator=data\_collator, |
|  |  dataset\_kwargs={"skip\_prepare\_dataset": True}, |
|  | ) |
|  |  |
|  | trainer.train() |

保存模型并推送到 Hugging Face Hub。

|  | trainer.save\_model(training\_args.output\_dir) |
|  | trainer.push\_to\_hub() |

你可在 此处 找到训得的模型。你也可以通过下面的页面试玩一下我们训得的模型⬇️。

https://HuggingFaceH4-vlm-playground.hf.space

致谢

我们感谢 Pedro Cuenca、Lewis Tunstall、Kashif Rasul 和 Omar Sanseviero 对本文的评论和建议。


英文原文: https://hf.co/blog/vlms
原文作者: Merve Noyan,Edward Beeching
译者: Matrix Yao (姚伟峰),英特尔深度学习工程师,工作方向为 transformer-family 模型在各模态数据上的应用及大规模模型的训练推理。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/661391.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

ZISUOJ 高级语言程序设计实训-基础C(部分题)

说明&#xff1a; 有几个题是不会讲的&#xff0c;我只能保证大家拿保底分。 题目列表&#xff1a; 问题 A: 求平均数1 思路&#xff1a; 送分题…… 参考题解&#xff1a; #include <iostream> #include <iomanip> using std::cin; using std::cout;int main(…

Android手势识别面试问题及回答

问题 1: 如何在Android中实现基本的手势识别&#xff1f; 答案: 在Android中&#xff0c;可以通过使用GestureDetector类来实现基本的手势识别。首先需要创建一个GestureDetector的实例&#xff0c;并实现GestureDetector.OnGestureListener接口来响应各种手势事件&#xff0c…

手把手教数据结构与算法:优先级队列(银行排队问题)

队列 基本概念 队列的定义 队列&#xff08;Queue&#xff09;&#xff1a;队列是一种常见的数据结构&#xff0c;遵循先进先出&#xff08;First-In-First-Out, FIFO&#xff09;的原则。在队列中&#xff0c;元素按照进入队列的顺序排列。队列是一个线性的数据结构&#x…

修改Ubuntu远程登录欢迎提示信息

无论何时登录公司的某些生产系统&#xff0c;你都会看到一些登录消息、警告或关于你已登录服务器的信息&#xff0c;如下所示。 修改方式 1.打开ubuntu终端,进入到/etc/update-motd.d目录下面 可以发现目录中的文件都是shell脚本, 用户登录时服务器会自动加载这个目录中的文件…

树莓派5用docker运行Ollama3

书接上回&#xff0c;树莓派5使用1panel安装 Ollama 点击终端就可以进入容器 输入以下代码 ollama run llama3Llama3 是市场推崇的版本。您的 树莓派5上必须至少有 4.7GB 的可用空间&#xff0c;因此用树莓派玩机器学习就必须配置大容量的固态硬盘。用1panel部署网络下载速度…

食谱管理和餐饮计划应用Mealie

放假除了休闲娱乐&#xff0c;也不能忘了美食 什么是 Mealie &#xff1f; Mealie 是一个自托管的食谱管理和餐饮计划应用&#xff0c;具有 RestAPI 后端和基于 Vue 构建的响应式前端应用&#xff0c;为整个家庭提供愉快的用户体验。通过提供 URL&#xff0c;您可以轻松将食谱…

AC+AP三层组网实验(华为)

一&#xff0c;技术简介 APAC架构是一种常见的无线局域网&#xff08;WLAN&#xff09;组网方式&#xff0c;主要由接入点&#xff08;Access Point&#xff0c;简称AP&#xff09;和接入控制器&#xff08;Access Controller&#xff0c;简称AC&#xff09;组成。 在APAC架构…

面试常见 | 项目上没有亮点,如何包装?

很多技术人在公司用的老技术&#xff0c;而且很多都是搬业务代码且做枯燥乏味的CRUD&#xff0c;在面试提交简历或做自我介绍的时候并不突出&#xff0c;这种情况&#xff0c;如何破局&#xff1f; 首先不管你做的啥项目&#xff0c;全世界不可能只有你自己在做&#xff0c;比…

变电站综合自动化系统:Modbus-PLC-645转IEC104网关方案

前言 电力行业作为关系国计民生的重要基础产业&#xff0c;是关系千家万户的公用事业。但是要做好电力行业安全保障工作的前提&#xff0c;是需要对应的技术人员详细了解电力工业使用的系统、设备以及各类协议的安全特性&#xff0c;本文将主要介绍IEC 104协议的定义和钡铼技术…

关于配置nginx 代理去掉location 匹配的上下文规则

事情是这样的&#xff0c;有个需求&#xff0c;就是在本系统准备把所有的api 请求放到webman 框架 然后把后台的业务依然保留在fastadmin 框架&#xff0c; 打算加一个反向代理&#xff0c;用同一个域名的加上一个访问后缀&#xff0c;放到到webman 服务&#xff0c;也就是本…

Spring Security介绍(三)过滤器(2)自定义

除了使用security自带的过滤器链&#xff0c;我们还可以自定义过滤器拦截器。 下面看下自定义的和security自带的执行顺序。 一、总结 1、自定义过滤器&#xff1a; 一般自定义fliter都是&#xff1a; import lombok.extern.slf4j.Slf4j; import org.springframework.ster…

3.C++动态内存管理(超全)

目录 1 .C/C 内存分布 2. C语言中动态内存管理方式&#xff1a;malloc/calloc/realloc/free 3. C内存管理方式 3.1 new/delete操作内置类型 3.2 new和delete操作自定义类型 3.3 operator new函数 3.4 定位new表达式(placement-new) &#xff08;了解&#xff09; 4. 常…