論文の概要: 3inGAN: Learning a 3D Generative Model from Images of a Self-similar
Scene
- arxiv url: http://arxiv.org/abs/2211.14902v1
- Date: Sun, 27 Nov 2022 18:03:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 20:08:52.890739
- Title: 3inGAN: Learning a 3D Generative Model from Images of a Self-similar
Scene
- Title(参考訳): 3inGAN: 自己相似シーンの画像から3次元生成モデルを学ぶ
- Authors: Animesh Karnewar and Oliver Wang and Tobias Ritschel and Niloy Mitra
- Abstract要約: 3inGANは、単一の自己相似3Dシーンの2D画像から訓練された無条件3D生成モデルである。
実地および合成源から得られた,様々なスケールと複雑さの半確率的な場面での結果を示す。
- 参考スコア(独自算出の注目度): 34.2144933185175
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce 3inGAN, an unconditional 3D generative model trained from 2D
images of a single self-similar 3D scene. Such a model can be used to produce
3D "remixes" of a given scene, by mapping spatial latent codes into a 3D
volumetric representation, which can subsequently be rendered from arbitrary
views using physically based volume rendering. By construction, the generated
scenes remain view-consistent across arbitrary camera configurations, without
any flickering or spatio-temporal artifacts. During training, we employ a
combination of 2D, obtained through differentiable volume tracing, and 3D
Generative Adversarial Network (GAN) losses, across multiple scales, enforcing
realism on both its 3D structure and the 2D renderings. We show results on
semi-stochastic scenes of varying scale and complexity, obtained from real and
synthetic sources. We demonstrate, for the first time, the feasibility of
learning plausible view-consistent 3D scene variations from a single exemplar
scene and provide qualitative and quantitative comparisons against recent
related methods.
- Abstract(参考訳): 自己相似3dシーンの2d画像から学習した無条件3d生成モデルである3inganを紹介する。
このようなモデルは、空間的潜在コードから3dボリューム表現にマッピングすることで、与えられたシーンの3d「リミックス」を作成するために使用することができ、その後、物理ベースのボリュームレンダリングを使用して任意のビューからレンダリングすることができる。
建設段階では、生成されたシーンは任意のカメラ構成で表示に一貫性があり、フリックや時空間のアーティファクトはない。
トレーニングでは,異なるボリュームトレースによって得られた2Dと,複数のスケールにわたるGAN(Generative Adversarial Network)損失を組み合わせ,その3D構造と2Dレンダリングの両方にリアリズムを強制する。
実地および合成源から得られた,様々なスケールと複雑さの半確率的な場面での結果を示す。
そこで,本研究では,実演場面から3次元映像変化を学習する可能性を示すとともに,近年の手法との質的・定量的比較を行った。
関連論文リスト
- Enhancing Single Image to 3D Generation using Gaussian Splatting and Hybrid Diffusion Priors [17.544733016978928]
単一の画像から3Dオブジェクトを生成するには、野生で撮影された未ポーズのRGB画像から、目に見えない景色の完全な3D形状とテクスチャを推定する必要がある。
3次元オブジェクト生成の最近の進歩は、物体の形状とテクスチャを再構築する技術を導入している。
本稿では, この限界に対応するために, 2次元拡散モデルと3次元拡散モデルとのギャップを埋めることを提案する。
論文 参考訳(メタデータ) (2024-10-12T10:14:11Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - Sculpt3D: Multi-View Consistent Text-to-3D Generation with Sparse 3D Prior [57.986512832738704]
本稿では,2次元拡散モデルを再学習することなく,抽出した参照オブジェクトから3次元先行を明示的に注入する,電流パイプラインを備えた新しいフレームワークSculpt3Dを提案する。
具体的には、スパース線サンプリングによるキーポイントの監督により、高品質で多様な3次元形状を保証できることを実証する。
これら2つの分離された設計は、参照オブジェクトからの3D情報を利用して、2D拡散モデルの生成品質を保ちながら、3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2024-03-14T07:39:59Z) - Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - CC3D: Layout-Conditioned Generation of Compositional 3D Scenes [49.281006972028194]
本稿では,複雑な3次元シーンを2次元セマンティックなシーンレイアウトで合成する条件生成モデルであるCC3Dを紹介する。
合成3D-FRONTと実世界のKITTI-360データセットに対する評価は、我々のモデルが視覚的および幾何学的品質を改善したシーンを生成することを示す。
論文 参考訳(メタデータ) (2023-03-21T17:59:02Z) - Learning 3D Scene Priors with 2D Supervision [37.79852635415233]
本研究では,3次元の地平を必要とせず,レイアウトや形状の3次元シーンを学習するための新しい手法を提案する。
提案手法は, 3次元シーンを潜在ベクトルとして表現し, クラスカテゴリを特徴とするオブジェクト列に段階的に復号化することができる。
3D-FRONT と ScanNet による実験により,本手法は単一視点再構成における技術状況よりも優れていた。
論文 参考訳(メタデータ) (2022-11-25T15:03:32Z) - RenderDiffusion: Image Diffusion for 3D Reconstruction, Inpainting and
Generation [68.06991943974195]
単分子2次元観察のみを用いて学習した3次元生成と推論のための最初の拡散モデルであるRenderDiffusionを提案する。
FFHQ,AFHQ,ShapeNet,CLEVRのデータセット上でRenderDiffusionを評価し,3Dシーンの生成と2D画像からの3Dシーンの推測の競合性能を示した。
論文 参考訳(メタデータ) (2022-11-17T20:17:04Z) - Disentangled3D: Learning a 3D Generative Model with Disentangled
Geometry and Appearance from Monocular Images [94.49117671450531]
最先端の3D生成モデルは、合成に神経的な3Dボリューム表現を使用するGANである。
本稿では,単分子観察だけで物体の絡み合ったモデルを学ぶことができる3D GANを設計する。
論文 参考訳(メタデータ) (2022-03-29T22:03:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。