清华、斯坦福、加大开源,图片生成高精准3D模型_全球资讯热分享网(专注热点收集平台)

清华、斯坦福、加大开源,图片生成高精准3D模型


清华、斯坦福、加大开源,图片生成高精准3D模型

  2024-01-01 03:15:16     简体|繁體
https://refenxiang.com/1029425.html

原文来源:AIGC开放社区

图片来源:由无界 AI生成

随着ChatGPT的出现以及广泛应用,通过文本生成文本、视频、音频等内容,成为实现技术民主化的关键手段。

在3D模型领域通过文本生成并不成熟,多数方法是通过图片。而该方法存在生成时间长、缺乏细节、难以匹配图像等缺点。

加州大学、清华大学、斯坦福大学共同开发了全新模型“One-2-3-45++”并将其开源。该模型仅通过图片,就能在1分钟内将一张RGB图像转换为高精准3D模型,这对于游戏开发、3D建模等领域,可以节省大量开发时间。

研究人员在包含1030个3D对象的GSO数据集上与多个基准方法进行了比较。测试数据显示,One-2-3-45++在几何相似度、CLIP相似度指标上均优于基准方法。

在包含50多名真实用户的评估数据显示,87.6%表示One-2-3-45++生成的结果,优于其他方法,质量更高、更符合输入图像。

开源地址:https://github.com/SUDO-AI-3D/One2345plus

论文地址:https://arxiv.org/abs/2311.07885

在线demo:https://www.sudo.ai/3dgen

One-2-3-45++的核心技术原理主要包括三大块:一致的多视角图像生成、基于多视角的3D重建以及纹理优化。

一致的多视角图像生成

这一模块的作用是从单个输入图像中生成多个视角一致的图像。One-2-3-45++一共可生成6个视角的图像,布局是一个3x2的矩形网格,分别对应不同的相机位置。

为了避免生成的3D形状存在方向歧义,这6个相机位姿使用绝对高度角以及相对方位角来定义,同时使用了预训练文生图模型Stable Diffusion作为生成器。

此外,使用了Objaverse数据集中的3D形状进行微调。对每个3D形状,生成3个训练样本,分别对应不同的输入图像视角。同时使用统一的HDR环境光进行渲染,以提升细节、光影效果。


基于多视角的3D重建


上一个模块我们已经有了6个对象的多视角图片,这个模块就是要把二维的图片转换成3D模型。

具体做法是先用6张图片生成一个低分辨率的三维体积元素,近似表示整体形状。然后在体积元素里面生成更高分辨率的“体积元素”,捕捉表面细节。

体积元素就是用小立方体组成的三维矩阵。这里有两种体积元素,一种SDF体积元素,记录了一个位置到物体表面的距离;另一种是颜色体积元素,记录一个位置到物体表面最近点的颜色。

同时这6张图片是生成体积元素的条件,先从图片里提取二维特征,然后反投影到三维空间构建一个三维特征体,这个体包含了多视角的先验信息,可以指导三维模型体积元素的生成。


纹理优化


经过前面两个步骤生成的3D模型,在颜色、质量、纹理方面还比较粗糙,所以需要进行优化达到最终效果。同样可以利用前面6个视角的图像,来增强最终网格模型的纹理质量。

方法是固定住网格的三维结构不变,仅优化表示颜色的网络。每次迭代中,用当前的颜色网络渲染网格,生成二维图片。然后与之前生成的多视角图片计算损失,更新颜色网络。

这样通过不断地优化,网格表面的颜色信息会逐渐跟多视角图片越来越接近,从而实现纹理的提升。



编辑:web3528btc 来源:加密钱包代币

分享到:

  • 上一篇
    下一篇

  • 分享知识|收获智慧

    全球资讯热分享网(专注热点收集平台)
    手机查看(二维码扫一扫)

    全球资讯热分享网,最有影响力热点信息分类网站,主要集合图文、知识、日常、娱乐、财经、文化、生活、致富、女性、地区、科技等多类信息分享交流,免费提供最有价值的头条信息平台。
    « 2024年 » « 11月 »
    123
    45678910
    11121314151617
    18192021222324
    252627282930