阿里通义万相开源首尾帧生视频模型

AI资讯2天前发布 ainav
4 0

4月17日,阿里通义万相重磅宣布开源其研发的创新视频生成模型——首尾帧生视频模型。该模型拥有140亿参数量,标志着业界首个公开发布的百亿级参数首尾帧视频模型问世。

这款先进的AI工具能够根据用户提供的起始和结束图片,生成一段高质量的720p高清视频,并确保画面之间自然流畅地衔接。此次技术升级为用户提供更加灵活、个性化的视频内容创作能力,满足多样化的定制化需求。

阿里通义万相开源首尾帧生视频模型

用户可通过通义万相官方网站免费体验该模型,同时也可以在GitHub、Hugging Face和魔搭社区下载模型进行本地部署,并基于此开展二次开发。

技术创新亮点

相比传统视频生成技术,通义万相的首尾帧生视频模型实现了多项技术突破:

  • 支持同一主体下实现多样化的特效变化

  • 可同时处理不同场景间的运镜控制

  • 生成的视频内容与输入图片高度一致,同时具备丰富的镜头语言表现力

例如:

  • 上传同一地点不同时间的图片,结合特定提示词,即可生成四季变换或昼夜交替的延时摄影效果。

  • 通过旋转、摇镜、推进等多样化运镜方式,实现场景间的自然过渡,提升视频观赏性。

以下是开源资源的访问地址:

  • Github:https://github.com/Wan-Video/Wan2.1

  • HuggingFace:https://huggingface.co/Wan-AI/Wan2.1-FLF2V-14B-720P

  • 魔搭社区:https://www.modelscope.cn/models/Wan-AI/Wan2.1-FLF2V-14B-720P

  • 在线体验入口:https://tongyi.aliyun.com/wanxiang/videoCreation

阿里通义万相开源首尾帧生视频模型

© 版权声明

相关文章