【AI论文与新生技术】Meta 发布 Meta 3D Gen 文本生成3D模型

我们推出了 Meta 3D Gen (3DGen),这是一种用于文本到 3D 资产生成的最先进的快速管道。3DGen 可在一分钟内提供具有高提示保真度和高质量 3D 形状和纹理的 3D 资产创建。

它支持基于物理的渲染 (PBR),这是在实际应用程序中重新照明 3D 资产所必需的。此外,3DGen 还支持使用用户提供的其他文本输入对先前生成(或艺术家创建)的 3D 形状进行生成式重纹理处理。3DGen 集成了我们分别为文本到 3D 和文本到纹理生成而开发的关键技术组件 Meta 3D AssetGen 和 Meta 3D TextureGen。

通过结合它们的优势,3DGen 以三种方式同时表示 3D 对象:在视图空间、体积空间和 UV(或纹理)空间中。这两种技术的集成相对于单阶段模型实现了 68% 的胜率。我们将 3DGen 与众多行业基准进行了比较,并表明它在复杂文本提示的提示保真度和视觉质量方面优于它们,同时速度明显更快。

(登录后查看项目文件资料链接👇)

AIGC+3D相关:
https://heehel.com/category/aigc/ai3d

【AI论文与新生技术】Meta 发布 Meta 3D Gen 文本生成3D模型

Meta 3D Gen(简称3DGen),这是一种先进的文本到3D资产生成的快速流程。简单来说,3DGen可以根据用户的文字描述快速生成3D模型,比如你描述一个“穿着绿色羊毛衫的霸王龙”,3DGen就能在不到一分钟的时间内生成一个相应的3D模型,而且模型的纹理和质感都相当逼真。

喜好儿了解到这项技术背后有两个关键组件:Meta 3D AssetGen和Meta 3D TextureGen,前者负责根据文本生成3D模型,后者则用于生成模型的纹理。3DGen通过结合这两种技术,能够在视图空间、体积空间和UV(纹理)空间中同时表示3D对象,从而生成高质量的3D资产。

3DGen还有一项特殊功能,就是可以根据用户的额外文本输入,对已生成或由艺术家创作的3D模型进行再生纹理处理。这使得3D模型的纹理可以进一步编辑和定制,提高了效率和灵活性。

【AI论文与新生技术】Meta 发布 Meta 3D Gen 文本生成3D模型

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
今日签到
有新私信 私信列表
搜索