論文の概要: GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images
- arxiv url: http://arxiv.org/abs/2209.11163v1
- Date: Thu, 22 Sep 2022 17:16:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 13:43:30.941357
- Title: GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images
- Title(参考訳): get3d:画像から学ぶ高品質な3dテクスチャ形状の生成モデル
- Authors: Jun Gao, Tianchang Shen, Zian Wang, Wenzheng Chen, Kangxue Yin,
Daiqing Li, Or Litany, Zan Gojcic, Sanja Fidler
- Abstract要約: 本稿では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを備えたExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
- 参考スコア(独自算出の注目度): 72.15855070133425
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As several industries are moving towards modeling massive 3D virtual worlds,
the need for content creation tools that can scale in terms of the quantity,
quality, and diversity of 3D content is becoming evident. In our work, we aim
to train performant 3D generative models that synthesize textured meshes which
can be directly consumed by 3D rendering engines, thus immediately usable in
downstream applications. Prior works on 3D generative modeling either lack
geometric details, are limited in the mesh topology they can produce, typically
do not support textures, or utilize neural renderers in the synthesis process,
which makes their use in common 3D software non-trivial. In this work, we
introduce GET3D, a Generative model that directly generates Explicit Textured
3D meshes with complex topology, rich geometric details, and high-fidelity
textures. We bridge recent success in the differentiable surface modeling,
differentiable rendering as well as 2D Generative Adversarial Networks to train
our model from 2D image collections. GET3D is able to generate high-quality 3D
textured meshes, ranging from cars, chairs, animals, motorbikes and human
characters to buildings, achieving significant improvements over previous
methods.
- Abstract(参考訳): いくつかの業界が巨大な3Dバーチャルワールドのモデリングに向かっている中、3Dコンテンツの量、品質、多様性の面でスケール可能なコンテンツ作成ツールの必要性が顕在化しつつある。
本研究の目的は,3次元レンダリングエンジンで直接使用可能なテクスチャメッシュを合成し,下流アプリケーションで即座に使用可能な高性能な3次元生成モデルをトレーニングすることである。
3D生成モデリングに関する以前の研究は、幾何学的詳細を欠いているか、生成できるメッシュトポロジーに制限があるか、一般的にテクスチャをサポートしていないか、合成プロセスでニューラルレンダラーを利用するかのいずれかであった。
本研究では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを持つExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
我々は,2次元画像コレクションからモデルをトレーニングするために,微分可能曲面モデリング,微分可能レンダリング,および2次元生成逆ネットワークの最近の成功を橋渡しする。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
関連論文リスト
- 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - En3D: An Enhanced Generative Model for Sculpting 3D Humans from 2D
Synthetic Data [36.51674664590734]
本研究では,高品質な3次元アバターの小型化を図ったEn3Dを提案する。
従来の3Dデータセットの不足や、視角が不均衡な限られた2Dコレクションと異なり、本研究の目的は、ゼロショットで3D人間を作れる3Dの開発である。
論文 参考訳(メタデータ) (2024-01-02T12:06:31Z) - Uni3D: Exploring Unified 3D Representation at Scale [66.26710717073372]
大規模に統一された3次元表現を探索する3次元基礎モデルであるUni3Dを提案する。
Uni3Dは、事前にトレーニングされた2D ViTのエンドツーエンドを使用して、3Dポイントクラウド機能と画像テキスト整列機能とを一致させる。
強力なUni3D表現は、野生での3D絵画や検索などの応用を可能にする。
論文 参考訳(メタデータ) (2023-10-10T16:49:21Z) - HyperStyle3D: Text-Guided 3D Portrait Stylization via Hypernetworks [101.36230756743106]
本論文は,2次元画像の中間表現として,2次元領域と3次元領域を3次元フィールドで橋渡しする3次元GANの成功に着想を得たものである。
本稿では,3次元ポートレートスタイリングのための3次元認識型GANをベースとしたHyperStyle3Dという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-19T07:22:05Z) - Fantasia3D: Disentangling Geometry and Appearance for High-quality
Text-to-3D Content Creation [45.69270771487455]
本稿では,高品質なテキスト・ツー・3Dコンテンツ作成のためのFantasia3Dの新たな手法を提案する。
Fantasia3Dの鍵となるのは、幾何学と外観の混乱したモデリングと学習である。
我々のフレームワークは、人気のあるグラフィックスエンジンとより互換性があり、生成した3Dアセットのリライティング、編集、物理シミュレーションをサポートしています。
論文 参考訳(メタデータ) (2023-03-24T09:30:09Z) - CC3D: Layout-Conditioned Generation of Compositional 3D Scenes [49.281006972028194]
本稿では,複雑な3次元シーンを2次元セマンティックなシーンレイアウトで合成する条件生成モデルであるCC3Dを紹介する。
合成3D-FRONTと実世界のKITTI-360データセットに対する評価は、我々のモデルが視覚的および幾何学的品質を改善したシーンを生成することを示す。
論文 参考訳(メタデータ) (2023-03-21T17:59:02Z) - XDGAN: Multi-Modal 3D Shape Generation in 2D Space [60.46777591995821]
本稿では,3次元形状をコンパクトな1チャネル幾何画像に変換し,StyleGAN3と画像間翻訳ネットワークを利用して2次元空間で3次元オブジェクトを生成する手法を提案する。
生成された幾何学画像は素早く3Dメッシュに変換し、リアルタイムな3Dオブジェクト合成、可視化、インタラクティブな編集を可能にする。
近年の3次元生成モデルと比較して,より高速かつ柔軟な3次元形状生成,単一ビュー再構成,形状操作などの様々なタスクにおいて,本手法が有効であることを示す。
論文 参考訳(メタデータ) (2022-10-06T15:54:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。