論文の概要: gCoRF: Generative Compositional Radiance Fields
- arxiv url: http://arxiv.org/abs/2210.17344v1
- Date: Mon, 31 Oct 2022 14:10:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 18:55:06.314625
- Title: gCoRF: Generative Compositional Radiance Fields
- Title(参考訳): gcorf: 生成的組成ラミアンス場
- Authors: Mallikarjun BR, Ayush Tewari, Xingang Pan, Mohamed Elgharib, Christian
Theobalt
- Abstract要約: オブジェクトの3次元生成モデルにより、3次元制御によるフォトリアリスティック画像合成が可能となる。
既存の方法はシーンをグローバルなシーン表現としてモデル化し、シーンの構成的側面を無視します。
本稿では,オブジェクトの各意味部分を独立した3次元表現として表現する合成生成モデルを提案する。
- 参考スコア(独自算出の注目度): 80.45269080324677
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D generative models of objects enable photorealistic image synthesis with 3D
control. Existing methods model the scene as a global scene representation,
ignoring the compositional aspect of the scene. Compositional reasoning can
enable a wide variety of editing applications, in addition to enabling
generalizable 3D reasoning. In this paper, we present a compositional
generative model, where each semantic part of the object is represented as an
independent 3D representation learned from only in-the-wild 2D data. We start
with a global generative model (GAN) and learn to decompose it into different
semantic parts using supervision from 2D segmentation masks. We then learn to
composite independently sampled parts in order to create coherent global
scenes. Different parts can be independently sampled while keeping the rest of
the object fixed. We evaluate our method on a wide variety of objects and parts
and demonstrate editing applications.
- Abstract(参考訳): オブジェクトの3次元生成モデルにより、3次元制御によるフォトリアリスティック画像合成が可能となる。
既存の方法はシーンをグローバルなシーン表現としてモデル化し、シーンの構成的側面を無視します。
合成推論は、汎用化可能な3d推論に加えて、幅広い編集アプリケーションを可能にする。
本稿では,対象の個々の意味的部分を2次元データのみから学習した独立した3次元表現として表現する合成生成モデルを提案する。
まず、グローバルな生成モデル(GAN)から始め、2次元セグメンテーションマスクの監督を用いて、異なる意味部分に分解することを学ぶ。
そして、コヒーレントなグローバルシーンを作るために、独立したサンプル部品の合成を学ぶ。
異なるパーツは、オブジェクトの残りを固定しながら、独立してサンプルすることができる。
本手法を多種多様なオブジェクトや部品で評価し,編集アプリケーションの実演を行った。
関連論文リスト
- Disentangled 3D Scene Generation with Layout Learning [109.03233745767062]
本稿では,コンポーネントオブジェクトに絡み合った3Dシーンを生成する手法を提案する。
私たちの重要な洞察は、オブジェクトは空間的に再構成された場合、同じシーンの有効な構成を生成する3Dシーンの一部を見つけることで発見できるということです。
単純さにもかかわらず、我々のアプローチは個々のオブジェクトに3Dシーンを生成することに成功している。
論文 参考訳(メタデータ) (2024-02-26T18:54:15Z) - DisCoScene: Spatially Disentangled Generative Radiance Fields for
Controllable 3D-aware Scene Synthesis [90.32352050266104]
DisCoSceneは高品質で制御可能なシーン合成のための3Daware生成モデルである。
グローバルな局所的差別を伴う2次元画像のみを学習することで、シーン全体をオブジェクト中心の生成フィールドに分解する。
挑戦的な屋外データセットを含む多くのシーンデータセットで最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-12-22T18:59:59Z) - 3inGAN: Learning a 3D Generative Model from Images of a Self-similar
Scene [34.2144933185175]
3inGANは、単一の自己相似3Dシーンの2D画像から訓練された無条件3D生成モデルである。
実地および合成源から得られた,様々なスケールと複雑さの半確率的な場面での結果を示す。
論文 参考訳(メタデータ) (2022-11-27T18:03:21Z) - ONeRF: Unsupervised 3D Object Segmentation from Multiple Views [59.445957699136564]
OneRFは、追加のマニュアルアノテーションなしで、マルチビューのRGBイメージから3Dのオブジェクトインスタンスを自動的に分割し、再構成する手法である。
セグメント化された3Dオブジェクトは、様々な3Dシーンの編集と新しいビューレンダリングを可能にする別個のNeRF(Neural Radiance Fields)を使用して表現される。
論文 参考訳(メタデータ) (2022-11-22T06:19:37Z) - Discovering 3D Parts from Image Collections [98.16987919686709]
本稿では,2次元画像収集のみによる3次元部分発見の問題に対処する。
そこで我々は,手動で注釈付部品を監督する代わりに,自己監督型アプローチを提案する。
私たちのキーとなる洞察は、前もって新しい部分の形状を学習することで、各部分は、単純な幾何学を持つように制約されたまま、忠実にオブジェクトの形状に適合できるようにします。
論文 参考訳(メタデータ) (2021-07-28T20:29:16Z) - GIRAFFE: Representing Scenes as Compositional Generative Neural Feature
Fields [45.21191307444531]
深部生成モデルは、高解像度で光リアルな画像合成を可能にする。
しかし、多くのアプリケーションにとって、これは十分ではない。コンテンツ生成も制御可能である必要がある。
我々のキーとなる仮説は、構成的な3Dシーン表現を生成モデルに組み込むことにより、より制御可能な画像合成につながるというものである。
論文 参考訳(メタデータ) (2020-11-24T14:14:15Z) - ROOTS: Object-Centric Representation and Rendering of 3D Scenes [28.24758046060324]
人間の知能の重要な能力は、部分的なシーンの観察から個々の3Dオブジェクトのモデルを構築することである。
最近の研究は、オブジェクト中心の生成を実現するが、表現を推測する能力がない。
本稿では,モジュール型および構成型3Dオブジェクトモデル構築学習のための確率論的生成モデルを提案する。
論文 参考訳(メタデータ) (2020-06-11T00:42:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。