由北京大学、腾讯AI实验室和香港科技大学共同研发的一种称为 "AnimateZero" 的AI视频扩散模型,它可以将静态图像转化为动态视频。
传统的视频扩散模型存在一些问题,比如生成过程不透明、效率低下、受域限制等。为了解决这些问题,AnimateZero 提出了一种逐步视频生成的方法,将视频生成过程分解为外观和运动两个步骤。这样可以更加高效和可控地生成满意的图像,再通过进一步的处理生成视频。同时,AnimateZero 还可以通过零样本修改将 T2V 模型转化为 I2V 模型,从而实现视频扩散模型作为零镜头图像动画师的功能。
AnimateZero 在不同个性化模型上生成的视频,能使用文本控制视频运动的方法。AnimateZero 还可以用于视频编辑、帧插值、循环视频生成和真实图像动画等应用领域。
AnimateZero项目展示链接:
https://vvictoryuki.github.io/animatezero.github.io/