使用 Runway GEN-3 进行第一人称视角风格场景转场过渡视频

Runway能够将两个完全不同的环境变形并连接在一起,这真是令人着迷。

Runway Gen-3是Runway公司最新发布的AI视频生成模型,该模型基于大规模多模态训练基础设施,显著提升了视频的保真度、一致性和动态表现。与前一代Gen-2相比,Gen-3在画面真实感、物体在复杂环境中保持一致性的能力等方面有了巨大突破。

(RunwayML官网链接👇)

Gen-3 Alpha于2024年6月18日首次发布,并在7月2日向所有用户开放使用。它支持文本到视频、图像到视频和文本到图像等多种创作方式。此外,Gen-3还提供了一套微调工具,允许用户进行更灵活的图像与相机控制。

Gen-3 Alpha能够生成最高11秒长的720P分辨率视频,尽管目前不带任何背景音乐,但其画面细节已经达到了电影级画质。该模型通过物理模拟功能,确保生成的内容严格遵守现实世界的特点,从而增强了视频的真实感和观赏性。

用户可以利用Gen-3制作各种类型的视频作品,如美食介绍、微电影宣传和创意短片等,这些作品表现出优秀的饱和度、光影效果和动作连贯性。此外,Gen-3还具备强大的审美能力,能够理解和运用各种美学原则,创造出具有吸引力的视觉效果。

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
今日签到
有新私信 私信列表
搜索