//再不认真就输了!
//致力于发现AIGC动态与教程。

StoryDiffusion:用于长距离图像和视频生成的一致自注意力

对于最近基于扩散的生成模型,在一系列生成的图像中保持一致的内容,特别是那些包含主题和复杂细节的图像,提出了重大挑战。在本文中,他们提出了一种新的自注意力计算方法,称为一致性自注意力,它显着提高了生成图像之间的一致性,并以零样本方式增强了流行的基于预训练扩散的文本到图像模型。

代码项目:https://github.com/HVision-NKU/StoryDiffusion

AIGC专区:
https://heehel.com/category/aigc

更多消息:
https://heehel.com/category/ai-news

为了将他们的方法扩展到远程视频生成,他们进一步引入了一种新颖的语义空间时间运动预测模块,称为语义运动预测器。它被训练来估计语义空间中两个提供的图像之间的运动条件。该模块将生成的图像序列转换为具有平滑过渡和一致主题的视频,比仅基于潜在空间的模块更加稳定,特别是在长视频生成的情况下。

通过合并这两个新颖的组件,他们的框架(称为 StoryDiffusion)可以描述基于文本的故事,其中包含包含丰富内容的一致图像或视频。拟议的 StoryDiffusion 涵盖了通过图像和视频的呈现来生成视觉故事的开创性探索,他们希望这能够从建筑修改方面激发更多的研究。

版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
文章名称:《StoryDiffusion:用于长距离图像和视频生成的一致自注意力》
文章链接:https://heehel.com/ai-news/storydiffusion.html
本站资源仅供个人学习交流,未经许可不得用于商业用途,自行承担法律责任。
如有疑问,请联系微信:heehelcom

喜好儿——再不认真就输了!

致力于发现ai人工智能应用的新世界, 长期更新目前热门AI教程与动态!期待在这个工业变革时代中,希望你我都能发出一点光。

登录

找回密码

注册