X-Dancer – 字节等机构推出音乐驱动的人像舞蹈视频生成框架

AI工具2周前发布 ainav
22 0

X-Dancer是什么

X-Dancer 是字节跳动联合加州大学圣地亚哥分校和南加州大学的研究人员共同推出的音乐驱动的人像舞蹈视频生成框架,支持从单张静态图像生成多样化且逼真的全身舞蹈视频。X-Dancer结合自回归变换器(Transformer)和扩散模型,用 2D 人体姿态建模,基于广泛可用的单目视频数据捕捉舞蹈动作与音乐节奏的复杂对齐关系。X-Dancer 用多部分的 2D 姿态表示和置信度感知的量化方法,生成与音乐同步的舞蹈姿态序列,基于扩散模型将姿态序列转化为连贯的视频帧。X-Dancer 在运动多样性、音乐对齐和视频质量方面均优于现有方法,能适应不同体型和风格的参考图像,支持零样本生成和特定编舞的微调。

X-Dancer – 字节等机构推出音乐驱动的人像舞蹈视频生成框架

X-Dancer的主要功能

  • 从单张静态图像生成舞蹈视频:用一张人物图像和一段音乐,生成与音乐节奏同步的全身舞蹈视频。
  • 多样化和个性化的舞蹈动作:支持生成多种风格和复杂动作,包括头部、手部等细节动作,支持不同体型和风格的人物动画。
  • 音乐节奏对齐:舞蹈动作与音乐节奏紧密同步,捕捉音乐的节拍和风格。
  • 零样本生成与定制化:支持零样本生成,针对特定编舞风格进行微调,适应不同舞蹈需求。
  • 高质量视频合成:生成的舞蹈视频具有高分辨率和逼真的视觉效果,同时保持与参考图像的一致性。

X-Dancer的技术原理

  • 姿态建模:基于 2D 人体姿态估计从单目视频中提取舞蹈动作,避免 3D 姿态估计的复杂性和数据限制。
  • 多部分姿态量化:将人体分为多个部分(如上半身、下半身、头部、双手),分别编码量化为姿态标记(tokens),基于共享解码器组合成完整姿态。
  • 自回归变换器:用 GPT 类的自回归模型,根据音乐特征和历史姿态信息预测未来的姿态标记序列,实现与音乐的同步。
  • 扩散模型合成:将生成的姿态标记用可训练的运动解码器转换为空间引导信号,结合参考图像特征,基于扩散模型生成连贯的舞蹈视频。
  • AdaIN 与时空模块:用自适应实例归一化(AdaIN)和时空模块,确保生成视频的时空连贯性和身份一致性。

X-Dancer的项目地址

  • arXiv技术论文:https://arxiv.org/pdf/2502.17414

X-Dancer的应用场景

  • 社交媒体分享:用户将照片和音乐转化为个性化舞蹈视频,增加社交平台内容趣味性。
  • 虚拟角色动画:为虚拟现实、元宇宙中的角色生成同步舞蹈动作,提升表现力。
  • 音乐游戏互动:实时生成舞蹈动作,增强音乐节奏游戏的视觉效果和互动性。
  • 广告宣传:结合品牌音乐生成舞蹈视频,用在广告推广,吸引用户关注。
  • 舞蹈教育:生成不同风格舞蹈视频,辅助舞蹈教学或展示文化特色。
© 版权声明

相关文章