論文の概要: DisCoScene: Spatially Disentangled Generative Radiance Fields for
Controllable 3D-aware Scene Synthesis
- arxiv url: http://arxiv.org/abs/2212.11984v1
- Date: Thu, 22 Dec 2022 18:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 15:02:39.136056
- Title: DisCoScene: Spatially Disentangled Generative Radiance Fields for
Controllable 3D-aware Scene Synthesis
- Title(参考訳): DisCoScene: 制御可能な3D認識シーン合成のための空間分散生成放射場
- Authors: Yinghao Xu, Menglei Chai, Zifan Shi, Sida Peng, Ivan Skorokhodov,
Aliaksandr Siarohin, Ceyuan Yang, Yujun Shen, Hsin-Ying Lee, Bolei Zhou,
Sergey Tulyakov
- Abstract要約: DisCoSceneは高品質で制御可能なシーン合成のための3Daware生成モデルである。
グローバルな局所的差別を伴う2次元画像のみを学習することで、シーン全体をオブジェクト中心の生成フィールドに分解する。
挑戦的な屋外データセットを含む多くのシーンデータセットで最先端のパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 90.32352050266104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing 3D-aware image synthesis approaches mainly focus on generating a
single canonical object and show limited capacity in composing a complex scene
containing a variety of objects. This work presents DisCoScene: a 3Daware
generative model for high-quality and controllable scene synthesis. The key
ingredient of our method is a very abstract object-level representation (i.e.,
3D bounding boxes without semantic annotation) as the scene layout prior, which
is simple to obtain, general to describe various scene contents, and yet
informative to disentangle objects and background. Moreover, it serves as an
intuitive user control for scene editing. Based on such a prior, the proposed
model spatially disentangles the whole scene into object-centric generative
radiance fields by learning on only 2D images with the global-local
discrimination. Our model obtains the generation fidelity and editing
flexibility of individual objects while being able to efficiently compose
objects and the background into a complete scene. We demonstrate
state-of-the-art performance on many scene datasets, including the challenging
Waymo outdoor dataset. Project page:
https://snap-research.github.io/discoscene/
- Abstract(参考訳): 既存の3D認識画像合成手法は、主に単一の標準オブジェクトを生成し、様々なオブジェクトを含む複雑なシーンを構成する際の限られた能力を示す。
高品質かつ制御可能なシーン合成のための3dウェア生成モデルである。
提案手法のキーとなる要素は,シーンレイアウトの先行として,非常に抽象的なオブジェクトレベルの表現(意味論のない3次元境界ボックス)である。
また、シーン編集の直感的なユーザコントロールとしても機能する。
提案モデルでは,2次元画像のみを大域的局所的識別で学習することにより,全シーンを対象中心の放射輝度場に空間的に分離する。
本モデルでは、オブジェクトと背景を効率よく完全なシーンに構成しながら、個々のオブジェクトの生成精度と編集柔軟性を得る。
waymo屋外データセットを含む多くのシーンデータセットで最先端のパフォーマンスを示す。
プロジェクトページ: https://snap-research.github.io/discoscene/
関連論文リスト
- 3DitScene: Editing Any Scene via Language-guided Disentangled Gaussian Splatting [100.94916668527544]
既存の方法は、個々の2Dオブジェクトまたは3Dグローバルシーン編集にのみ焦点をあてる。
本稿では,新鮮で統一的なシーン編集フレームワークである3DitSceneを提案する。
2Dから3Dへのシームレスな編集が可能で、シーン構成や個々のオブジェクトを正確に制御できる。
論文 参考訳(メタデータ) (2024-05-28T17:59:01Z) - Disentangled 3D Scene Generation with Layout Learning [109.03233745767062]
本稿では,コンポーネントオブジェクトに絡み合った3Dシーンを生成する手法を提案する。
私たちの重要な洞察は、オブジェクトは空間的に再構成された場合、同じシーンの有効な構成を生成する3Dシーンの一部を見つけることで発見できるということです。
単純さにもかかわらず、我々のアプローチは個々のオブジェクトに3Dシーンを生成することに成功している。
論文 参考訳(メタデータ) (2024-02-26T18:54:15Z) - Style-Consistent 3D Indoor Scene Synthesis with Decoupled Objects [84.45345829270626]
制御可能な3D屋内シーン合成は、技術進歩の最前線にある。
シーンスタイリングの現在の手法は、シーン全体にスタイルを適用することに限定されている。
室内3Dシーンを合成するためのユニークなパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-24T03:10:36Z) - UrbanGIRAFFE: Representing Urban Scenes as Compositional Generative
Neural Feature Fields [22.180286908121946]
粗い3Dパノプティクスを用いて、3D認識生成モデルを導出するUrbanGIRAFFEを提案する。
私たちのモデルは、シーンを物、物、空に分解するので、構成的で制御可能です。
適切な損失関数を用いることで,多種多様な可制御性を持つ光リアルな3次元画像合成が容易となる。
論文 参考訳(メタデータ) (2023-03-24T17:28:07Z) - Set-the-Scene: Global-Local Training for Generating Controllable NeRF
Scenes [68.14127205949073]
オブジェクトプロキシを用いて3Dシーンを合成するための新しいGlobalLocalトレーニングフレームワークを提案する。
プロキシを使うことで、個々の独立オブジェクトの配置を調整するなど、さまざまな編集オプションが実現可能であることを示す。
その結果,Set-the-Sceneはシーンの合成と操作に強力なソリューションを提供することがわかった。
論文 参考訳(メタデータ) (2023-03-23T17:17:29Z) - gCoRF: Generative Compositional Radiance Fields [80.45269080324677]
オブジェクトの3次元生成モデルにより、3次元制御によるフォトリアリスティック画像合成が可能となる。
既存の方法はシーンをグローバルなシーン表現としてモデル化し、シーンの構成的側面を無視します。
本稿では,オブジェクトの各意味部分を独立した3次元表現として表現する合成生成モデルを提案する。
論文 参考訳(メタデータ) (2022-10-31T14:10:44Z) - Learning Object-Compositional Neural Radiance Field for Editable Scene
Rendering [42.37007176376849]
本稿では,物体合成型ニューラルラジアンス場を学習し,クラスタ化された実世界のシーンをリアルにレンダリングするニューラルシーンレンダリングシステムを提案する。
密集したシーンでのトレーニングを生き残るために, 密集した領域における3次元空間のあいまいさを解消し, それぞれの物体の鋭い境界を学習するためのシーン誘導型トレーニング戦略を提案する。
論文 参考訳(メタデータ) (2021-09-04T11:37:18Z) - GIRAFFE: Representing Scenes as Compositional Generative Neural Feature
Fields [45.21191307444531]
深部生成モデルは、高解像度で光リアルな画像合成を可能にする。
しかし、多くのアプリケーションにとって、これは十分ではない。コンテンツ生成も制御可能である必要がある。
我々のキーとなる仮説は、構成的な3Dシーン表現を生成モデルに組み込むことにより、より制御可能な画像合成につながるというものである。
論文 参考訳(メタデータ) (2020-11-24T14:14:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。