Skip to content

多模态模型(视觉 / 音频 / 视频)

💡 学习指南:本章节无需深厚的计算机视觉背景,通过交互式演示带你理解 AI 是如何拥有“眼睛”的。我们将揭秘 GPT-4V、Qwen-VL 等模型背后的核心原理。

👁️ VLM 初体验:不只是看图说话
选择不同场景,体验多模态模型的多种能力。
🖼️
请先上传图片
等待图片上传...

0. 引言:给大脑装上眼睛

大语言模型入门 中,我们知道 LLM 本质上是一个被关在黑盒子里、只能通过文字来了解世界的“大脑”。

多模态大模型 (VLM) 的出现,相当于给这个大脑装上了一双眼睛

但这并不容易。因为:

  • 大脑 (LLM) 只懂文字(准确说是 Token ID)。
  • 眼睛 (摄像头) 看到的是像素(RGB 颜色数值)。

VLM 的核心任务,就是把“像素信号”翻译成“文字信号”,让 LLM 觉得看图就像读文章一样简单。


1. 第一步:把图片变成“单词” (Visual Tokenization)

想象一下,你正在电话里给朋友描述一副拼图。你不可能一口气说完,你得一块一块地描述。 计算机看图也是一样的道理。

1.1 切块 (Patchify) —— 制作视觉单词

我们知道,大语言模型 (LLM) 处理文本时,会把句子拆解成一个个的词元 (Token)。如果你想让 LLM “读懂”图片,最直观的方法就是把图片也变成类似 Token 的形式。

为了配合大模型这种“习惯读单词”的特性,我们需要一种能将连续的二维图像转换为离散片段的技术,这就引出了视觉流形切片 (Patchify) 的概念:我们把一张完整的二维图片,像切豆腐一样,切成一个个固定的网格小方块(称为 Patch)。

  • 原始图片 = 一篇完整的文章
  • 图片切块 (Patch) = 文章里的一个单词 (Token)

在工程实践中,我们通常会把图片按照固定的尺寸(比如 16×1616 \times 1614×1414 \times 14 像素)进行无缝切分。例如,一张常见的 224×224224 \times 224 像素的输入图片,切分后就会变成 14×14=19614 \times 14 = 196 个独立的图像方块。 通过这个操作,原本连续完整的二维像素阵列,就被物理切割成了 196 个离散的“视觉单词本”。

🕹️ 交互演示:点击下方按钮,体验原始图像是如何被规则的网格切割成一个个独立 Patch 的。

Step 1 / 4
1. 原始图片 (Original Image): 计算机看到的原始输入。

1.2 序列化 (Flatten) —— 排成一句话

完成上一步切块后,我们现在手头拥有的是一个 14×1414 \times 14 的二维方阵。然而,无论是传统的 Transformer 还是现代的 LLM,它们在底层架构上大多只接受一维的序列输入(也就是从左到右排成一排的线性数据结构)。

为了兼容大模型的输入规范,我们必须进行序列化 (Flatten) 与线性投影 (Linear Projection)

  1. 拍扁摊平 (Flatten):把多行的图像块首尾相接,将二维矩阵“拍扁”成一条只有前后顺序的一维长轴。
  2. 特征拉伸 (Projection):这 196 个方块目前还只是红绿蓝像素堆叠的“生肉”。我们需要用一个小型的神经网络(通常是一个全连接层)对每个方块进行处理,把它们分别压缩和转换成一段固定长度的特征向量(比如长度为 768 的数字列表)。

经过这一步操作,一张图片才真正变成了一串“视觉单词序列”(Visual Token Sequence)。

🕹️ 交互演示:观察下方动画,了解一个单纯的像素块 (Patch) 是如何经历矩阵拉伸,最终被映射成一个包含丰富特征维度的高维向量 (Vector) 的。

1. Patch (16×16×3) (示意 / Toy)
16×16 像素 × 3 通道 = 768 标量值
2. Flatten
得到 1×768 向量 (Vector)
× W
3. Embedding
映射到 D 维 (示意 D=8;常见 D=768)

2. 第二步:跨物种翻译 (Projection)

此时,虽然图片已经被转化成了一维连续的“视觉单词”序列,但这串序列对于最后的 LLM 来说,依然是一堆不可读的乱码。

为什么读不懂呢?因为特征空间不同(也就是它们说的语言不同)。 视觉编码器(如 ViT)提取出来的是空间像素特征(比如它只能告诉你“这是一个由很多弯曲黑色线条组成的东西”、“这里是大片红色”);而 LLM 内部理解的是深层语义特征(例如概念上的“猫”、“树木”、“危险”等)。

在这两种截然不同的话语体系之间,我们需要架设一座桥梁,也就是我们的跨模态翻译官:Projector (投射器/适配器)

2.1 翻译官的作用 (Latent Space Alignment)

Projector 的学术本质是实现特征隐空间的对齐 (Latent Space Alignment)。这就像是现实生活中的同声传译员:

  • 输入 (Source):ViT 吐出的“视觉特征”(侧重于几何、颜色、纹理规律等连续的高维特征表示)。
  • 处理 (Translation):Projector 利用一个神经网络结构(可能是几层简单的线性变换层,或是复杂的注意力层),在这个过程中找到两种语言之间的数学对应关系。
  • 输出 (Target):输出完全符合 LLM 口味和预期的“LLM 语言”(由图片特征转换而成的等价文本嵌入 Token,使得图像拥有了可以对话的意义)。

通过这层翻译过滤,大模型就会惊奇地发现:“咦?传进来的这段数字串,不就是我平时读的那些带有描述性质的单词组合吗!”,从而顺理成章地将图片特征与自然语言共同处理。

Visual Tokens (ViT)
256 Tokens
Linear Layer
直接映射 (1:1)
LLM Tokens
256 Tokens (保留全部细节)
Linear Projector: 简单高效。它像一个直译器,保留了所有的视觉信息,虽然 Token 数量多(计算量大),但对细节的把控更好。

2.2 不同的翻译流派

为了让特征对齐这道“翻译工序”做得更快、更准,学术界和工业界衍生出了几种极具代表性的硬件连接设计方案:

  1. 直译派 (Linear Projection)

    • 做法:极其简单粗暴,仅用一层或几十层多层感知机 (MLP / 线性投影层) 进行直接的数学矩阵变换透传。
    • 特点信息损耗极低,保留图像原汁原味细节;但缺陷是将刚才切分的百上千个视觉词元毫无保留地全塞给语言模型,会导致后续计算量暴增。
    • 代表:LLaVA 系列。
  2. 意译派 (Q-Former / Resampler)

    • 做法:并不是原样透传,而是在中间引入一个具有抽象总结能力的“小型侦察兵网络”。这个中间代理人先全盘快速理解一遍图片,提纯出几十个高度凝缩的核心要点。
    • 特点信息高度精简提纯,Token 少,大大节省 LLM 思考理解的性能算力;缺陷是有可能会在提纯过程中抛去原始图片边缘里极其细微的观察线索。
    • 代表:BLIP-2, Gemini (部分机制类似)。
  3. 折中派 (C-Abstractor / Pooling)

    • 做法:借助卷积池化或局部区域重整,把相邻的 2×22 \times 2 或更大像素块压缩打包合并重组为一个完整的表达元。
    • 特点:既合理压缩了词元的长度上限,又依然留存了部分相互依存的局部和空间感。
    • 代表:Qwen-VL-Max。

3. 第三步:合体 (The Architecture)

有了零件、有了对接标准,接下来我们看它是如何完成全身武装的。主流的多模态视觉语言模型 (Vision-Language Model) 基本都遵循统一的“三段式”架构模型

3.1 VLM 的身体结构

🧠
Pure LLM (纯文本)Multimodal VLM (多模态)
Text-only tokens flow into the LLM. (只有文字 Token 流入大模型。)
Text Path (文字路径)
⌨️Prompt (提示词)
🔤Embed (向量化)
Text Tokens (文字 Token)
t1t2t3
Token Sequence (输入序列)
Text (文字)
t1t2t3
Only [Text Tokens] (只有文字 Token)
🧠LLM Backbone (大模型)
💬Response (回复)

Standard LLM Flow (标准大模型流程)

Prompt → Embedding → Token Sequence → LLM → Response。

一个典型范式下的 VLM 实体,主要由以下三大部分协同运转:

  1. 特征感知的“眼睛” (Vision Encoder - 视觉编码器)

    • 功能:作为图片输入的第一道关卡,负责看图并抽象出高维视觉特征。
    • 选型:大多数厂商不会从零开始训练眼睛,而是直接借用在数亿张「图像-文本配对」数据上预训练好的成熟组件(如 OpenAI 的 CLIP 模型视觉塔,或者是谷歌的 SigLIP 模型)。
    • 形象类比:这就是生物体高度特化的视网膜感光细胞区域。
  2. 信号转换的“视神经” (Projector - 模态投射器)

    • 功能:对接编码器和语言基座,负责信号维度的压缩、打通和多模态语义翻译。
    • 选型:这是整个多模态系统后续训练的重中之重。它自身的参数量通常不大(相对 LLM 而言),但决定了“文字”和“图片”之间能否心意相通。
    • 形象类比:它就像负责将电信号转换传递到大脑皮层的视觉神经中枢。
  3. 认知引擎“大脑” (LLM Backbone - 语言模型基座)

    • 功能:承担最终的观察、常识调用、深度逻辑推理以及拟人化答复的生成工作。
    • 选型:通常采用业内智商最高的开源大语言模型作为挂载点(如 Qwen, Llama 3, Vicuna 等)。
    • 形象类比:这是具备世界知识库的大脑语言和决策中序,它对视神经传来的加工后信号做出高阶思维判读。

4. 它是怎么学会看图的?(Training)

好,现在身体各部分已经缝合在一起。但是在正式接客之前,刚组装好的 VLM 实际上是处于类似于新生儿的“失明与混乱”状态的——因为新增的视神经 (Projector) 是一张白纸,里边全是没有意义的随机数值。

想要让这个拼接的怪物具备看图说话的能力,科学界总结出了一套高效的“两阶段训练法则 (Two-Stage Training)”

阶段一:认物 (Feature Alignment —— 认物预训练)

这一阶段,主要任务是让随机的 Projector 建立起初步的跨模态映射关系。过程非常像教婴儿用“认知闪卡”强行记单词。

  • 给它看 (训练输入):大批量(往往上亿张)包含单个突出主体的极简配对图文(例如白底的“猫”照片)。
  • 告诉它 (目标输出):附带简短的标签词汇(“一只橘猫”)。
  • 优化目标:强制驱使 Projector 学会通过矩阵变化,让这只猫的对应视觉特征(经过翻译后),和自然语言里的“猫”词元向量尽可能重合对齐。
  • 参数控制状态 (Freeze Strategy):为了防止破坏原有模型的智慧,在这个阶段研究人员会重度冻结 (Freeze) “眼睛”(ViT) 和 “大脑”(LLM) 的几十上百亿参数,仅仅只开启“视神经”(Projector) 本身的几百万参数训练
阶段一:特征对齐 (Feature Alignment / Pre-training)
目标:让 Projector 学会“翻译”图像语言。
做法:冻结 ViT 和 LLM,只训练 Projector。
🖼️
图片
(猫)
📝
标题
("一只猫")
❄️ 冻结
👁️
ViT
🔥 训练
🔌
Projector
❄️ 冻结
🧠
LLM
🟢
向量 V
Loss
V ≈ T
🔵
向量 T
准备就绪。点击按钮开始模拟一次训练迭代。

阶段二:对话 (Visual Instruction Tuning —— 对话演练)

如果第一阶段只会让模型变成报菜名似的认字机,那么第二阶段的任务就是激发它的高级智商,让它真正能根据上下文解答人类复杂的图文结合指令。

  • 给它看 (训练输入):精心设计的高质量问答训练对。比如提供一张复杂的城市交通全景图。
  • 要求它答 (目标输出):User 提问:“<图片> 左下角那个骑白色自行车的男人有没有戴头盔?” Assistant 回答:“没有,他头上什么都没戴,这在城市里是很危险的行为。”
  • 优化目标:让大模型不仅能接收视觉线索,还能结合从前的文明常识积淀,将文本逻辑与多模态表征彻底融汇贯通并做出推理。
  • 参数控制状态 (Freeze Strategy):此时视神经已经基本调通。在这个精调阶段,一般会继续冻结一部分视觉编码器底层权重,同时彻底解冻开启 LLM 和 Projector(或采用 LoRA 配置),进行全局大规模的联合反向传播调校。
👤
🐱
这只猫在做什么?

5. 进阶:看得更清 (Advanced Tricks)

虽然以上架构支撑起了最初的多模态范式,但第一代 VLM 模型存在一个非常令人头疼的基础硬伤——近视眼(视力先天不足)

早期的视觉编码器 ViT 因为历史设计原因,天生只能处理例如 224×224224 \times 224336×336336 \times 336 这种极其低分辨率的方寸小图。这就像是强行通过一个模糊、低质的几十万像素复古摄像头去观察世界,图里面稍微小一点的文字牌匾等细节完全会糊成一团像素点,大脑就算再聪明也是“巧妇难为无米之炊”。

为了攻克低清病症,前沿的模型厂商(如 Qwen-VL 团队,LLaVA-NeXT 等)用了一些非常精妙的工程手段:

5.1 动态高分辨率切分布局 (Dynamic High-Resolution Mapping)

如果直接输入大图会导致显存爆满,而粗暴缩小又会丢光所有细节,该如何破局?目前的解法是:“局部特写 + 全局鸟瞰”的双视角策略

  1. 整体概览:首先把巨大的原版高清图直接缩小压到 336×336336 \times 336,送给眼睛看一眼。这让模型掌握画面的总体宏观布局结构(天空在哪?地面在哪?)。
  2. 切片放大看:把高清原图切成好几十个独立、336×336336 \times 336 的无损局部特写切分块(Slice)。
  3. 逐一审视与空间回拼:让视觉引擎挨个用放大镜去扫描这几十个无损切面收集高清细节。随后,Projector 会像拼图一样把这些细节块的语义与初始的总览语境相互缝合。

这种做法,就好比是你拿手机给一份报纸全景拍了一张照(看全貌版面布局),接着又端着手机贴近报纸连续拍下了几十张段落特写的组合过程。

5.2 换个天生的大眼睛 (Scaling the Vision Encoder)

另一种纯粹展现暴力美学的做法就是:既然原始的眼睛天生基因有缺陷,那我就重头炼制一颗最惊世骇俗的超级眼睛。

以国内优秀的开源模型 InternVL 为经典代表,它摒弃了常用的小规格视觉模型,从底向上直接耗费海量资源单独训练了一个参数量高达几十亿(如 60 亿参数的 InternViT-6B)的罕见超巨型视觉编码器前置基座。 凭借极强的数据吸收能力,它生来就是原生支持高分辨率无缝输入的“哈勃空间望远镜”。这种设计大大降低了系统为了切图拼图而引入的复杂工程开销和特征错位风险,直接实现“一览无遗”的高清视觉感知。


6. 总结

多模态大模型 (VLM) 并没有什么魔法。它只是做了一件事:

把“图像”这种外语,翻译成了“文本”这种母语,然后喂给了 LLM。

只要理解了这一点,你就理解了 VLM 的一切。


7. 名词速查表 (Glossary)

名词全称解释
VLMVision-Language Model多模态大模型。能看懂图的 GPT。
ViTVision Transformer视觉模型。VLM 的“眼睛”,负责把像素变成向量。
Patch-图像块。图片被切成的小方块,相当于“视觉单词”。
Projector-投射器/翻译官。连接眼睛和大脑的桥梁。
Alignment-对齐。让图像特征和文本特征在同一个空间里“互相听得懂”。