論文の概要: BlobGAN-3D: A Spatially-Disentangled 3D-Aware Generative Model for
Indoor Scenes
- arxiv url: http://arxiv.org/abs/2303.14706v1
- Date: Sun, 26 Mar 2023 12:23:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 18:00:43.911078
- Title: BlobGAN-3D: A Spatially-Disentangled 3D-Aware Generative Model for
Indoor Scenes
- Title(参考訳): BlobGAN-3D:屋内シーンの空間差を考慮した3次元生成モデル
- Authors: Qian Wang, Yiqun Wang, Michael Birsak, Peter Wonka
- Abstract要約: 元の2D BlobGANを3D対応で改良したBlobGAN-3Dを提案する。
シーン内の個々のオブジェクトのゆがみを維持しながら、明示的なカメラポーズ制御を可能にする。
提案手法は,2D BlobGAN や他の 3D 対応 GAN ベースラインと比較して画像品質が同等であることを示す。
- 参考スコア(独自算出の注目度): 42.61598924639625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D-aware image synthesis has attracted increasing interest as it models the
3D nature of our real world. However, performing realistic object-level editing
of the generated images in the multi-object scenario still remains a challenge.
Recently, a 2D GAN termed BlobGAN has demonstrated great multi-object editing
capabilities on real-world indoor scene datasets. In this work, we propose
BlobGAN-3D, which is a 3D-aware improvement of the original 2D BlobGAN. We
enable explicit camera pose control while maintaining the disentanglement for
individual objects in the scene by extending the 2D blobs into 3D blobs. We
keep the object-level editing capabilities of BlobGAN and in addition allow
flexible control over the 3D location of the objects in the scene. We test our
method on real-world indoor datasets and show that our method can achieve
comparable image quality compared to the 2D BlobGAN and other 3D-aware GAN
baselines while being able to enable camera pose control and object-level
editing in the challenging multi-object real-world scenarios.
- Abstract(参考訳): 実世界の3D特性をモデル化する3D認識画像合成が注目されている。
しかし、生成した画像の現実的なオブジェクトレベルの編集を多目的シナリオで行うことは依然として課題である。
最近、BlobGANと呼ばれる2D GANが、実世界の屋内シーンデータセット上で、優れたマルチオブジェクト編集機能を示した。
本稿では,オリジナルの2D BlobGANを3D対応で改良したBlobGAN-3Dを提案する。
2Dブロブを3Dブロブに拡張することにより、シーン内の個々のオブジェクトの絡み合いを維持しながら、明示的なカメラポーズ制御を可能にする。
我々は,BlobGANのオブジェクトレベルの編集機能を維持し,シーン内のオブジェクトの3D位置を柔軟に制御する。
本手法を実世界の屋内データセットでテストし,本手法が2次元ブロブガンや他の3次元認識ganベースラインと同等の画質を実現すると同時に,多目的実世界シナリオにおいてカメラのポーズ制御やオブジェクトレベルの編集を可能にしていることを示す。
関連論文リスト
- SYM3D: Learning Symmetric Triplanes for Better 3D-Awareness of GANs [5.84660008137615]
SYM3Dは、自然と人造の物体で見られる主観対称性構造を活用するために設計された、新しい3D対応のGANである。
単視点画像のみを訓練しても, 詳細な形状やテクスチャを捉える上で, 優れた性能を示す。
論文 参考訳(メタデータ) (2024-06-10T16:24:07Z) - Zero-Shot Multi-Object Scene Completion [59.325611678171974]
1枚のRGB-D画像から複雑なシーンにおける複数の見えない物体の完全な形状を復元する3Dシーン補完法を提案する。
提案手法は, 合成および実世界の両方のデータセットにおいて, 現在の最先端技術よりも優れている。
論文 参考訳(メタデータ) (2024-03-21T17:59:59Z) - Image Sculpting: Precise Object Editing with 3D Geometry Control [33.9777412846583]
Image Sculptingは、3D幾何学とグラフィックスのツールを組み込むことで、2D画像を編集する新しいフレームワークである。
これは、ポーズ編集、回転、翻訳、3D合成、彫刻、シリアル追加といった、正確で定量化され、物理的に証明可能な編集オプションをサポートする。
論文 参考訳(メタデータ) (2024-01-02T18:59:35Z) - Anything-3D: Towards Single-view Anything Reconstruction in the Wild [61.090129285205805]
本稿では,一連の視覚言語モデルとSegment-Anythingオブジェクトセグメンテーションモデルを組み合わせた方法論的フレームワークであるAnything-3Dを紹介する。
提案手法では、BLIPモデルを用いてテキスト記述を生成し、Segment-Anythingモデルを用いて関心対象を効果的に抽出し、テキスト・画像拡散モデルを用いて物体を神経放射場へ持ち上げる。
論文 参考訳(メタデータ) (2023-04-19T16:39:51Z) - UrbanGIRAFFE: Representing Urban Scenes as Compositional Generative
Neural Feature Fields [22.180286908121946]
粗い3Dパノプティクスを用いて、3D認識生成モデルを導出するUrbanGIRAFFEを提案する。
私たちのモデルは、シーンを物、物、空に分解するので、構成的で制御可能です。
適切な損失関数を用いることで,多種多様な可制御性を持つ光リアルな3次元画像合成が容易となる。
論文 参考訳(メタデータ) (2023-03-24T17:28:07Z) - CC3D: Layout-Conditioned Generation of Compositional 3D Scenes [49.281006972028194]
本稿では,複雑な3次元シーンを2次元セマンティックなシーンレイアウトで合成する条件生成モデルであるCC3Dを紹介する。
合成3D-FRONTと実世界のKITTI-360データセットに対する評価は、我々のモデルが視覚的および幾何学的品質を改善したシーンを生成することを示す。
論文 参考訳(メタデータ) (2023-03-21T17:59:02Z) - Mimic3D: Thriving 3D-Aware GANs via 3D-to-2D Imitation [29.959223778769513]
本稿では,3D-to-2Dの模倣という新たな学習手法を提案する。
また、3D表現学習を改善するために、ジェネレータに3D対応の畳み込みを導入する。
その結果,FFHQとAFHQ-v2のFIDスコアは512×512でそれぞれ5.4点,AFHQ-v2 Catsでは4.3点に達した。
論文 参考訳(メタデータ) (2023-03-16T02:18:41Z) - XDGAN: Multi-Modal 3D Shape Generation in 2D Space [60.46777591995821]
本稿では,3次元形状をコンパクトな1チャネル幾何画像に変換し,StyleGAN3と画像間翻訳ネットワークを利用して2次元空間で3次元オブジェクトを生成する手法を提案する。
生成された幾何学画像は素早く3Dメッシュに変換し、リアルタイムな3Dオブジェクト合成、可視化、インタラクティブな編集を可能にする。
近年の3次元生成モデルと比較して,より高速かつ柔軟な3次元形状生成,単一ビュー再構成,形状操作などの様々なタスクにおいて,本手法が有効であることを示す。
論文 参考訳(メタデータ) (2022-10-06T15:54:01Z) - Do 2D GANs Know 3D Shape? Unsupervised 3D shape reconstruction from 2D
Image GANs [156.1209884183522]
GANのような最先端の2D生成モデルは、自然像多様体のモデリングにおいて前例のない品質を示している。
本稿では,RGB画像のみをトレーニングした市販の2D GANから3次元幾何学的手がかりを直接マイニングする試みについて紹介する。
論文 参考訳(メタデータ) (2020-11-02T09:38:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。