論文の概要: GAUDI: A Neural Architect for Immersive 3D Scene Generation
- arxiv url: http://arxiv.org/abs/2207.13751v1
- Date: Wed, 27 Jul 2022 19:10:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-29 12:17:13.409374
- Title: GAUDI: A Neural Architect for Immersive 3D Scene Generation
- Title(参考訳): 没入型3dシーン生成のためのニューラルアーキテクトgaudi
- Authors: Miguel Angel Bautista, Pengsheng Guo, Samira Abnar, Walter Talbott,
Alexander Toshev, Zhuoyuan Chen, Laurent Dinh, Shuangfei Zhai, Hanlin Goh,
Daniel Ulbricht, Afshin Dehghan, Josh Susskind
- Abstract要約: GAUDIは、動くカメラから没入的にレンダリングできる複雑な3Dシーンの分布をキャプチャできる生成モデルである。
GAUDIは,複数のデータセットにまたがる非条件生成環境において,最先端の性能が得られることを示す。
- 参考スコア(独自算出の注目度): 67.97817314857917
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce GAUDI, a generative model capable of capturing the distribution
of complex and realistic 3D scenes that can be rendered immersively from a
moving camera. We tackle this challenging problem with a scalable yet powerful
approach, where we first optimize a latent representation that disentangles
radiance fields and camera poses. This latent representation is then used to
learn a generative model that enables both unconditional and conditional
generation of 3D scenes. Our model generalizes previous works that focus on
single objects by removing the assumption that the camera pose distribution can
be shared across samples. We show that GAUDI obtains state-of-the-art
performance in the unconditional generative setting across multiple datasets
and allows for conditional generation of 3D scenes given conditioning variables
like sparse image observations or text that describes the scene.
- Abstract(参考訳): 移動カメラから没入的にレンダリングできる複雑でリアルな3dシーンの分布を捉えることができる生成モデルであるgaudiを紹介する。
スケーラブルで強力なアプローチでこの問題に対処し、まず、ラディアンスフィールドとカメラのポーズをアンタングルする潜在表現を最適化します。
この潜在表現は、3dシーンの無条件および条件生成を可能にする生成モデルを学ぶために使われる。
本モデルでは,カメラのポーズ分布をサンプル間で共有できるという仮定を取り除き,単一オブジェクトにフォーカスする以前の作業を一般化する。
複数のデータセットにまたがる無条件生成環境において,ガウディは最先端のパフォーマンスを得ることができ,スパース画像観察やシーンを記述したテキストなどの条件付き変数が与えられた3dシーンを条件付き生成できる。
関連論文リスト
- GSD: View-Guided Gaussian Splatting Diffusion for 3D Reconstruction [52.04103235260539]
単一視点からの3次元オブジェクト再構成のためのガウススプティング表現に基づく拡散モデル手法を提案する。
モデルはGS楕円体の集合で表される3Dオブジェクトを生成することを学習する。
最終的な再構成されたオブジェクトは、高品質な3D構造とテクスチャを持ち、任意のビューで効率的にレンダリングできる。
論文 参考訳(メタデータ) (2024-07-05T03:43:08Z) - DreamScape: 3D Scene Creation via Gaussian Splatting joint Correlation Modeling [23.06464506261766]
テキスト記述のみで高度に一貫した3Dシーンを作成する方法であるDreamScapeを提案する。
本手法では,シーン表現のための3次元ガウスガイドを,意味的プリミティブ(オブジェクト)とその空間変換によって構成する。
プログレッシブスケール制御は、局所オブジェクト生成中に調整され、異なるサイズと密度のオブジェクトがシーンに適応することを保証する。
論文 参考訳(メタデータ) (2024-04-14T12:13:07Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - BerfScene: Bev-conditioned Equivariant Radiance Fields for Infinite 3D
Scene Generation [96.58789785954409]
本研究では,同変放射場と鳥眼視図のガイダンスを組み込んだ実用的で効率的な3次元表現を提案する。
局所的なシーンを合成し、スムーズな一貫性で縫い合わせることで、大規模で無限スケールの3Dシーンを作ります。
論文 参考訳(メタデータ) (2023-12-04T18:56:10Z) - 3inGAN: Learning a 3D Generative Model from Images of a Self-similar
Scene [34.2144933185175]
3inGANは、単一の自己相似3Dシーンの2D画像から訓練された無条件3D生成モデルである。
実地および合成源から得られた,様々なスケールと複雑さの半確率的な場面での結果を示す。
論文 参考訳(メタデータ) (2022-11-27T18:03:21Z) - Explicitly Controllable 3D-Aware Portrait Generation [42.30481422714532]
ポーズ,アイデンティティ,表現,照明に関する意味的パラメータに基づいて,一貫した肖像画を生成する3次元肖像画生成ネットワークを提案する。
提案手法は,自然光の鮮明な表現によるリアルな肖像画を,自由視点で見る場合,先行技術よりも優れる。
論文 参考訳(メタデータ) (2022-09-12T17:40:08Z) - CAMPARI: Camera-Aware Decomposed Generative Neural Radiance Fields [67.76151996543588]
画像だけでなく,カメラデータ分布を忠実に復元する3次元およびカメラ認識生成モデルについて検討した。
テスト時に、私たちのモデルは、カメラを明示的に制御し、シーンの形状と外観で画像を生成します。
論文 参考訳(メタデータ) (2021-03-31T17:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。