AIMv2 – 苹果开源的多模态自回归预训练视觉模型

AI工具3周前发布 ainav
28 0

AIMv2是什么

AIMv2是苹果公司开源的多模态自回归预训练视觉模型,通过图像和文本的深度融合提升视觉模型的性能。采用创新的预训练框架,将图像划分为非重叠的图像块,将文本分解为子词令牌,然后将两者拼接为统一序列进行自回归预训练。简化了训练过程,增强了模型对多模态数据的理解能力。AIMV2提供了多种参数规模的版本(如300M、600M、1.2B和2.7B),适用于从手机到PC等不同设备。在性能方面,AIMV2在多模态任务和传统视觉任务中均表现出色。

AIMv2 – 苹果开源的多模态自回归预训练视觉模型

AIMv2的主要功能

  • 视觉问答(VQA):AIMV2 提取视觉特征并与问题文本结合,传递给大型语言模型(LLM),生成准确且贴合上下文的答案。
  • 指代表达理解:在 RefCOCO 和 RefCOCO+ 等基准测试中,AIMV2 能精准地将自然语言描述与视觉区域对应起来。
  • 图像字幕生成:结合 LLM,AIMV2 可以生成高质量的图像描述。
  • 多媒体检索:AIMV2 的多模态表示能力能高效地处理多媒体检索任务,支持对图像和文本的联合检索。
  • 与大型语言模型(LLM)集成:AIMV2 的架构与 LLM 驱动的多模态应用高度契合,能无缝集成到各种多模态系统中。
  • 零样本适应性:AIMV2 支持零样本识别适应性,能在不进行额外训练的情况下适应新的视觉任务。

AIMv2的技术原理

  • 多模态自回归预训练框架:AIMV2 将图像分割为不重叠的小块(Patch),将文本分解为子词标记,然后将两者拼接为一个多模态序列。在预训练阶段,模型通过自回归的方式预测序列中的下一个元素,图像块还是文本标记。这种设计使得模型能够同时学习视觉和语言模态之间的关联。
  • 视觉编码器与多模态解码器:AIMV2 的架构由视觉编码器和多模态解码器组成。视觉编码器基于视觉 Transformer(ViT)架构,负责处理图像 Patch。多模态解码器则使用因果自注意力机制,根据前文内容预测下一个元素。
  • 损失函数设计:AIMV2 定义了图像和文本领域的单独损失函数。文本损失采用标准的交叉熵损失,图像损失则采用像素级回归损失,用于比较预测的图像块与真实图像块。整体目标是最小化文本损失和图像损失的加权和,以平衡模型在两个模态上的性能。
  • 训练数据与扩展性:AIMV2 使用了大量图像和文本配对数据集进行预训练,包括公开的 DFN-2B 和 COYO 数据集。训练过程简单高效,不需要过大的批量大小或特殊的跨批次通信方法。AIMV2 的性能随着数据量和模型规模的增加而提升,展现出良好的可扩展性。
  • 预训练后的优化策略:AIMV2 探索了多种训练后策略,例如高分辨率适配和原始分辨率微调。这些策略使得模型能够更好地处理不同分辨率和宽高比的图像,进一步提升其在下游任务中的表现。

AIMv2的项目地址

  • Github仓库:https://github.com/apple/ml-aim
  • arXiv技术论文:https://arxiv.org/pdf/2411.14402

AIMv2的应用场景

  • 图像识别:AIMV2 可作为冻结的特征提取器,用于多个图像识别基准测试。
  • 目标检测和实例分割:AIMV2 可作为主干网络集成到目标检测模型(如 Mask R-CNN)中,用于目标检测和实例分割任务。
  • 开放词汇对象检测:AIMV2 在开放词汇对象检测任务中表现出色,能识别和定位未见过的类别,展示强大的泛化能力。
© 版权声明

相关文章