DreaMoving,是一种基于扩散的可控视频生成框架,用于生成高质量的定制人类视频。它能够根据给定的目标身份和动作序列,在任意场景下生成目标身份跳舞的视频。该研究团队提出了一个运动控制网络和一个内容引导器,用于运动控制和身份保留。并且适应各种风格化的扩散模型,可以生成不同风格的视频结果。
大家支持哪家公司?
DreaMoving能够在给定引导序列和简单的内容描述(例如文本提示或图像提示)作为输入的情况下生成高质量和高保真度的视频。相比之前的Reference Net,有着明显的质量提升。
据称DreaMoving收集了约1000个高质量的人类舞蹈视频数据,可以更好的控制动作姿势和表情。
阿里这次也直接放出了代码,学聪明了这是,那么效果究竟如何,大家不妨尝试一下吧
DreaMoving项目链接:
https://dreamoving.github.io/dreamoving/
DreaMoving项目代码下载地址:
https://github.com/dreamoving/dreamoving-project
DreaMoving项目论文链接:
https://arxiv.org/abs/2312.05107