Meta公司最新发布了一项名为Meta 3D Gen(3DGen)的AI模型,该模型可以在短短1分钟内,根据用户输入的提示词,生成高质量的3D内容。这些生成的内容具备高分辨率纹理和材质贴图,并支持基于物理的渲染(PBR),同时还能对之前生成的3D内容进行重新再生成。
Meta 3D Gen由text-to-3D和text-to-texture两个主要组件组成。首先,在第一阶段中,根据用户提供的文本提示,使用Meta的三维资产生成模型(AssetGen)创建初始3D资产。这个过程大约需要30秒,并且会产生一个带有纹理和PBR材质贴图的3D mesh。
接下来,在第二阶段中,根据第一阶段生成的三维资产和初始文本提示,阶段2将为该资产生成更高质量的纹理和PBR贴图。这一步骤使用了Meta的文本到纹理生成器Meta 3D TextureGen。整个过程大约需要20秒。
如果给定一个未纹理化的3D mesh以及一个描述其外观所需的提示,则在阶段2中还可以从头开始为该三维资产生成纹理(mesh可以是以前生成的,也可以是艺术家创建)。这个过程大约需要20秒。
用户可以通过阅读完整报告来深入了解这一新技术。
评论