中文 | English
- 此项目旨在从0开始,仅用1.3块钱成本 + 1小时!即可训练出26M参数的超小多模态视觉语言模型MiniMind-V。
-
MiniMind-V最小版本体积仅为 GPT3 的约
$\frac{1}{7000}$ ,力求做到个人GPU也可快速推理甚至训练。 - MiniMind-V是MiniMind纯语言模型的视觉能力额外拓展。
- 项目同时包含了VLM大模型的极简结构、数据集清洗、预训练(Pretrain)、监督微调(SFT)等全过程代码。
- 这不仅是一个开源VLM模型的最小实现,也是入门视觉语言模型的简明教程。
- 希望此项目能为所有人提供一个抛砖引玉的示例,一起感受创造的乐趣!推动更广泛AI社区的进步!
为防止误解,“1小时” 基于NVIDIA 3090硬件设备(单卡)测试
1 epoch
,“1.3块钱” 指GPU服务器租用成本。
“用乐高拼出一架飞机,远比坐在头等舱里飞行更让人兴奋!” 构建VLM范式的多模态大模型是否真的如想象中那样复杂?它的代码实现到底如何? 训练过程究竟难不难?那么现在,探索它们的答案,一起感受创造的乐趣吧!
Tip
(截至2025-02-20)MiniMind-V 系列已完成了以下型号模型训练,最小仅需26M (0.026B),即可具备识图和对话的能力!
模型 (大小) | 推理占用 | release |
---|---|---|
MiniMind2-V (104M) | 0.6 GB | 2025.02.20 |
MiniMind2-Small-V (26M) | 1.1 GB | 2025.02.20 |
minimind-v-v1-small (27M) | 0.6 GB | 2024.10.04 |
minimind-v-v1 (109M) | 1.1 GB | 2024.10.04 |
2025-02-20 (newest 🎉)
- MiniMind2-V伴随MiniMind2同步更新
- 大幅减少所有冗余代码,规范代码格式
- 大幅精简模型冗余结构
- 更新数据集格式,拓展新的SFT数据集
- 比前代VLM更优秀的效果!
2024-10-05
- MiniMind-V如期而至,首次开源
分享本人的软硬件配置(仅供参考)
- CPU: Intel(R) Core(TM) i9-10980XE CPU @ 3.00GHz
- RAM: 128 GB
- GPU: NVIDIA GeForce RTX 3090(24GB) * 8
- Ubuntu==20.04
- CUDA==12.2
- Python==3.10.16
- requirements.txt
# 克隆代码仓库
git clone https://github.com/jingyaogong/minimind-v
# 下载clip模型到 ./model/vision_model 目录下
git clone https://huggingface.co/openai/clip-vit-base-patch16
# or
git clone https://www.modelscope.cn/models/openai-mirror/clip-vit-base-patch16
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
git clone https://huggingface.co/jingyaogong/MiniMind2-V
# load=0: load from pytorch model, load=1: load from transformers-hf model
python eval_vlm.py --load 1
python web_demo_vlm.py
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
注:提前测试Torch是否可用cuda
import torch
print(torch.cuda.is_available())
如果不可用,请自行去torch_stable 下载whl文件安装。参考链接
从下文提供的数据集下载链接
下载需要的数据文件(创建./dataset
目录)并放到./dataset
下。
*.jsonl
为问答数据集,*images
为配套的图片数据,下载完成后需要解压图像数据。
注:数据集须知
请预留~5GB空间存放数据集,若无多余空间存放pretrain数据, 可尝试跳过pretrain训练步骤直接进行sft训练。
3.1 预训练(学图像描述)
python train_pretrain_vlm.py --epochs 4
执行预训练,得到
pretrain_vlm_*.pth
作为预训练的输出权重(其中*为模型的dimension,默认为512)
3.2 监督微调(学看图对话方式)
python train_sft_vlm.py --epochs 4
执行监督微调,得到
sft_vlm_*.pth
作为指令微调的输出权重
注:训练须知
所有训练过程默认每隔100步保存1次参数到文件./out/***.pth
(每次会覆盖掉旧权重文件)。
确保需要测试的模型*.pth
文件位于./out/
目录下。
也可以直接去此处下载使用我训练的*.pth
文件。
python eval_vlm.py --model_mode 1 # 默认为0:测试pretrain模型效果,设置为1:测试sft模型效果
Tip
训练脚本均为Pytorch原生框架,均支持多卡加速,假设你的设备有N (N>1) 张显卡:
单机N卡启动训练方式 (DDP, 支持多机多卡集群)
torchrun --nproc_per_node N train_xxx.py
注:其它须知
单机N卡启动训练 (DeepSpeed)
deepspeed --master_port 29500 --num_gpus=N train_xxx.py
可根据需要开启wandb记录训练过程
# 需要登录: wandb login
torchrun --nproc_per_node N train_xxx.py --use_wandb
# and
python train_xxx.py --use_wandb
通过添加--use_wandb
参数,可以记录训练过程,训练完成后,可以在wandb网站上查看训练过程。通过修改wandb_project
和wandb_run_name
参数,可以指定项目名称和运行名称。
MiniMind-V (VLM)的基座语言模型MiniMind (LLM)来自孪生项目minimind, 具体的模型结构、训练细节、原理、测试效果等均可移步minimind项目查阅。 此处为减少冗余,省略讨论LLM的相关部分,默认您已对MiniMind (LLM)的细节有基本的了解。
即使您不太了解LLM的细节,也可参考“快速开始”流程训练一个MiniMind-V, 这并不受到影响,仓库致力于最低成本的开箱即用!
MiniMind-V的结构仅增加Visual Encoder和特征投影两个子模块,增加模态混合分支,以支持多种模态信息的输入:
【重要】一些有趣的思考
此处不妨展开想一想两个问题:
- 什么叫做Large Language Model (LLM)?
- 什么叫做多模态模型?
这篇文章完美吻合本人的想法: 大语言模型(LLM)名字虽然带有语言二字,但它们其实与语言关系不大,这只是历史问题,更确切的名字应该是自回归 Transformer 或者其他。LLM 更多是一种统计建模的通用技术,它们主要通过自回归 Transformer 来模拟 token 流,而这些 token 可以代表文本、图片、音频、动作选择、甚至是分子等任何东西。 因此,只要能将问题转化为模拟一系列离散 token 的流程,理论上都可以应用 LLM 来解决。 实际上,随着大型语言模型技术栈的日益成熟,我们可能会看到越来越多的问题被纳入这种建模范式。也就是说,问题固定在使用 LLM 进行『下一个 token 的预测』,只是每个领域中 token 的用途和含义有所不同。
ZJU-LiXi老师同样谈及过类似观点(原话大意如下):
文本、视频、语音、动作等在人类看来属于「多模态」信号,但所谓的「模态」其实只是人类在信息存储方式上的一种分类概念。
就像.txt
和.png
文件,虽然在视觉呈现和高级表现形式上有所不同,但它们本质上并没有根本区别。
之所以出现「多模态」这个概念,仅仅是因为人类在不同的感知层面上对这些信号的分类需求。
然而,对于机器来说,无论信号来自何种「模态」,最终它们都只是以一串二进制的「单模态」数字序列来呈现。
机器并不会区分这些信号的模态来源,而只是处理和分析这些序列背后所承载的信息内容。
个人认为Generative Pretrained Transformer (GPT) 比 Large Language Model (LLM)更为贴切, 因此本人表达上更习惯用"GPT"去代表LLM/VLM/类GPT架构的系列模型,而非为了蹭OpenAI的热度。
至此,我们可以用一句话总结GPT的所作所为:
GPT模型根据现有token预测输出下一个下下一个下下下一个token ...,直到模型输出结束符;此处的"token"其实并不需要一定是文本!
> 对于LLM模型,如果需要理解"图片",我们只要把"图片"作为对一种特殊的从来没见过的"外国语言",通过"外语词典"翻译后即可作为特殊的语言输入LLM
> 对于LLM模型,如果需要理解"音频",我们只要把"音频"作为对一种特殊的从来没见过的"外国语言",通过"外语词典"翻译后即可作为特殊的语言输入LLM
> ...
为了得到MiniMind-V,我们只需要完成这2件事即可:
- 借助擅长翻译图片的 "外语词典" ,把图片从 "外国语言" 翻译为模型便于理解的 "LLM语言"
- 训练微调LLM,使其和 "外语词典" 度过磨合期,从而更好的理解图片
"外语词典" 称之为Visual Encoder模型。 和LlaVA、Qwen-VL等视觉语言模型类似,MiniMind-V同样选用开源Clip系列模型作为Visual Encoder。 具体使用clip-vit-base-patch16, 一种基于 ViT-B/16 架构的经典Visual Encoder用于描述图像文本信息。 输入的图像尺寸为224x224,因为划分的Patch是16×16,所以会产生16*16=196个token作为encoder编码层的输入, 最终产生1×768维的嵌入向量用于和文本对计算误差。 我们并不需要最终嵌入表示,因此只取encoder层的输出,也就是VIT核心主干的输出特征即可。 它拿到前一层维度196×768大小的特征,我们把它作为196个visual token输入MiniMind-V。 与LLM的结合在获取图像encoder特征后,一方面需要把768维度的visual token对齐到LLM的文本token, 另一方面,要将图像特征映射到与文本embedding相同的空间,即文本token和原生的视觉token需要磨合并不能直接地一视同仁, 可以称之为跨模态的特征对齐。 LlaVA-1使用简单的无偏线性变换完成了这一操作,效果很不错,MiniMind-V同样如此。
至此,MiniMind-V的内部结构变化已经呈现完毕。
下面,我们简单讨论MiniMind-V的外部输入输出的变化。
VLM的输入依然是一段文本,其中包含特殊的占位符。
在计算文本嵌入后,可以将图像编码器生成的向量投影到该占位符对应的嵌入部分,替换掉原先的占位符embedding。
例如:
<image>\n这个图像中有什么内容?
在minimind-v
中,使用196个字符组成的 @@@...@@@
占位符代替图像,之所以是196个字符,前面有所提及:
任何图像都被clip模型encoder为196×768维的token,
因此minimind-v
的prompt为:
@@@......@@@\n这个图片描述的是什么内容?
计算完embedding和projection,并对图像部分token替换后整个计算过程到输出则和LLM部分没有任何区别。
一次性多图的实现方法就是通过注入多个<image>
图像占位符进行实现,不需要修改任何框架。
视频理解的拓展思路
write by @xinyanghuang7
对于多模态大模型的视频理解能力,一个可行的思路是参考现有MiniCPM-V 2.6 进行视频理解的Python示例。 主要思想是通过提取视频关键帧,而后进行多图推理。 因此,如果希望在MiniMind-V中添加视频理解能力,可以在现有多图训练的基础上,参考此python脚本中对于关键帧的提取方法,而后加大训练文件中支持图片的数量。 所支持的MAX_NUM_FRAMES越多,所消耗的显存越大。
import torch
from PIL import Image
from transformers import AutoModel, AutoTokenizer
from decord import VideoReader, cpu # pip install decord
model = AutoModel.from_pretrained('openbmb/MiniCPM-V-2_6', trust_remote_code=True,
attn_implementation='sdpa',
torch_dtype=torch.bfloat16) # sdpa or flash_attention_2, no eager
model = model.eval().cuda()
tokenizer = AutoTokenizer.from_pretrained('openbmb/MiniCPM-V-2_6', trust_remote_code=True)
MAX_NUM_FRAMES = 64 # if cuda OOM set a smaller number
def encode_video(video_path):
def uniform_sample(l, n):
gap = len(l) / n
idxs = [int(i * gap + gap / 2) for i in range(n)]
return [l[i] for i in idxs]
vr = VideoReader(video_path, ctx=cpu(0))
sample_fps = round(vr.get_avg_fps() / 1) # FPS
frame_idx = [i for i in range(0, len(vr), sample_fps)]
if len(frame_idx) > MAX_NUM_FRAMES:
frame_idx = uniform_sample(frame_idx, MAX_NUM_FRAMES)
frames = vr.get_batch(frame_idx).asnumpy()
frames = [Image.fromarray(v.astype('uint8')) for v in frames]
print('num frames:', len(frames))
return frames
video_path = "video_test.mp4"
frames = encode_video(video_path)
question = "Describe the video"
msgs = [
{'role': 'user', 'content': frames + [question]},
]
# Set decode params for video
params = {}
params["use_image_id"] = False
params["max_slice_nums"] = 2 # 如果cuda OOM且视频分辨率大于448*448可设为1
answer = model.chat(
image=None,
msgs=msgs,
tokenizer=tokenizer,
**params
)
print(answer)
至此,MiniMind-V
的所有细节已经呈现完毕。
MiniMind-V
的模型子类完全继承自MiniMind
,
仅基于后者做最小变更而产生,
其核心算法改动< 50行
,迁移难度极低。
因此可能和LlAVA
等模型细节可能存在区别,但思路完全统一。
来源:Chinese-LLaVA-Vision
包含约57万张预训练图像,来自CC-3M和COCO 2014;
llava-en-zh-300k
包含300k条指令微调数据和15万张图像。
问答内容经过翻译,
对中文支持更友好,进一步经过整理并resize
。
(pretrain_vlm_data.jsonl) 预训练数据集格式:
{
"conversations": [
{
"role": "user",
"content": "提供给定图像的简要描述。\n<image>"
},
{
"role": "assistant",
"content": "橄榄油是自由使用的健康成分。"
}
],
"image": "GCC_train_002582585.jpg"
}
(sft_vlm_data.jsonl) 单图指令微调数据集格式:
{
"conversations": [
{
"role": "user",
"content": "闹钟的位置对睡眠质量有什么影响?<image>"
},
{
"role": "assistant",
"content": "把数字闹钟放在床头柜..."
}
],
"image": "train-00000-of-00001_image_0_0.jpg"
}
(sft_vlm_data_multi.jsonl) 多图指令微调数据集格式:
{
"conversations": [
{
"role": "user",
"content": "context: Source Image: <image> Target Image: <image> Instruction: What is the correct image edit instruction that can transfrom the source image to target image?<image>"
},
{
"role": "assistant",
"content": "take the people out of the back in the photo. Remove the two people behind the woman in the white dress and the man in the blue suit. remove people behind the couple in the centre"
}
],
"image": "0.jpg, 1.jpg"
}
数据说明
-
多图数据集规模相对较小且为英文对话,数据集仅包含两图对比的场景,因此微调效果有限,这里只提供一种参考思路。
-
jsonl
均为文本指令,images.zip
均为配套的图像数据(下载后需要解压)
数据集下载地址:(ModelScope | HuggingFace)
train_pretrain_vlm
预训练从595K条数据集中学习图片的通用知识,比如鹿是鹿,狗是狗。
train_sft_vlm
指令微调从300K条真实对话数据集中学习对图片提问的真实问答格式,更符合与人类的交流习惯。
train_sft_vlm
多图微调提供demo:鸟类对比数据集,长度为13.6k的真实问答格式。
训练时均冻结visual encoder也就是clip模型梯度, 只训练Projection和LLM两部分。 预训练中,只设置Projection和LLM的最后一层参数可学习。 指令微调中,设置Projection和LLM的全部参数可学习。
训练时间和Loss走势(仅供参考)
(原生PyTorch*.pth
权重文件) 下载地址:
(ModelScope | HuggingFace)
(Transformers
格式模型)
下载地址:
(ModelScope | HuggingFace)
注:Transformers版本均为单图指令微调后的
MiniMind-V
模型
视觉信号对于LLM视作一种特殊的外语, 因此“学习外语”的能力高低, 很大程度上取决于LLM的能力。 LLM性能越强,对应的VLM必然越强,此时效果增益会很明显。
> 更简单的Projection的跨模态特征对齐方式,相较于Cross-Attention可能处于劣势。
> Clip模型可以尝试更大性能更强的large系列,用更具细粒度的token表征图像特征,目前仍粗糙。
> 分辨率不高,理论上只有224×224(minimind-v数据集为节省空间,仅设定为128×128)。
> ...
Tip
如果您觉得 MiniMind-V
对您有所帮助,可以在 GitHub 上加一个⭐
水平有限难免存在未知的纰漏,欢迎所有人在Issues交流指正或提交PR改进项目
您的支持就是持续改进项目的动力,谢谢!
🤝贡献者
参考链接 & 感谢以下优秀的论文或项目
- 排名不分任何先后顺序
- LlaVA
- LlaVA-VL
- Chinese-LLaVA-Vision-Instructions
This repository is licensed under the Apache-2.0 License.