阿里推出通义千问2.5版:性能提升显著,显存占用大幅降低

AI资讯2天前发布 ainav
2 0

5月1日,科技界传来最新消息,阿里巴巴在人工智能领域持续发力,其Qwen团队继今年3月推出Qwen2.5-Omni-7B模型后,于近日再接再厉,在4月30日正式发布了更轻量的版本——Qwen2.5-Omni-3B。这一最新成果现已对外开放下载,可通过Hugging Face平台获取。

值得注意的是,这款3B参数模型是其旗舰级7B多模态模型的精简版,专为消费级硬件设备打造,支持文本、音频、图像和视频等多种输入形式。这一设计使得该模型能够更广泛地应用于实际场景。

尽管在参数规模上有所缩减,但据团队测试结果显示,在多模态性能方面,3B版本依然保持了与7B旗舰模型相近的水平,特别是在实时文本生成和自然语音输出等关键指标上表现尤为突出。

阿里推出通义千问2.5版:性能提升显著,显存占用大幅降低

从具体表现来看,该模型在视频理解和语音生成等关键任务上的测试结果均达到接近7B版本的水平。这一成绩证明了即便是在轻量化设计下,该模型依然能够保持相当高的性能水准。

在技术实现上,Qwen2.5-Omni-3B通过优化算法实现了显著的内存占用降低。在处理长文本上下文等复杂任务时,其VRAM使用量较7B版本降低了约50%。这一突破使得该模型能够运行于主流消费级GPU设备,为开发者和研究人员提供了更便捷的应用环境。

在架构设计方面,开发团队采用了创新性的”Thinker-Talker”结构,并通过一系列技术优化显著提升了推理效率和生成质量。这一系列改进不仅降低了硬件要求,还使得模型的运行速度得到了明显提升。

参考文献

  • Hugging Face

  • GitHub 页面

  • 魔搭社区

  • Multimodal AI on Developer GPUs: Alibaba Releases Qwen2.5-Omni-3B with 50% Lower VRAM Usage and Nearly-7B Model Performance

  • Qwen swings for a double with 2.5-Omni-3B model that runs on consumer PCs, laptops

© 版权声明

相关文章