
https://ai.meta.com/research/publications/meta-3d-gen
Meta公司最近推出了一款全新的“3D Gen”模型,这是一个“最先进的快速处理管道”,能够在一分钟内将输入文本转换为高保真3D图像。
更令人兴奋的是,该系统还能通过文本提示为生成的图像和艺术家制作的图像应用新纹理和皮肤。
据Meta Gen AI研究团队的最新研究,3D Gen不仅提供高分辨率的纹理和材料贴图,还支持基于物理的渲染(PBR)和生成性重新纹理化功能。
研究团队估计,使用Meta的3D AssetGen模型创建初始3D模型的平均推理时间仅为30秒。用户随后可以通过Meta 3D TextureGen模型使用文本提示来进一步完善现有的模型纹理或替换为新的纹理,这一过程预计仅需额外的20秒推理时间。
研究摘要中提到:“通过结合这些优势,3DGen同时在三种方式下表示3D对象:视图空间、体积空间和UV(或纹理)空间。”Meta团队将其3D Gen模型与多个行业基准进行了比较,考虑了文本提示的保真度、视觉质量、纹理细节和伪影等因素。通过结合这两个模型的功能,注释者在68%的时间里选择了通过集成的两阶段过程生成的图像,而不是单阶段生成的图像。
虽然这篇论文中讨论的系统仍在开发中,尚未准备好公开使用,但该研究展示的技术进步可能会在游戏和电影特效到VR应用等多个创意领域产生变革性影响。
赋予用户快速且直观地创建和编辑3D生成内容的能力,可以大大降低这些创作活动的门槛。不难想象,这对游戏开发等领域将产生的巨大影响。