論文の概要: BerfScene: Bev-conditioned Equivariant Radiance Fields for Infinite 3D
Scene Generation
- arxiv url: http://arxiv.org/abs/2312.02136v1
- Date: Mon, 4 Dec 2023 18:56:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 14:07:55.987927
- Title: BerfScene: Bev-conditioned Equivariant Radiance Fields for Infinite 3D
Scene Generation
- Title(参考訳): BerfScene:無期限3次元シーン生成のためのベブ条件等変放射場
- Authors: Qihang Zhang, Yinghao Xu, Yujun Shen, Bo Dai, Bolei Zhou, Ceyuan Yang
- Abstract要約: 本研究では,同変放射場と鳥眼視図のガイダンスを組み込んだ実用的で効率的な3次元表現を提案する。
局所的なシーンを合成し、スムーズな一貫性で縫い合わせることで、大規模で無限スケールの3Dシーンを作ります。
- 参考スコア(独自算出の注目度): 96.58789785954409
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generating large-scale 3D scenes cannot simply apply existing 3D object
synthesis technique since 3D scenes usually hold complex spatial configurations
and consist of a number of objects at varying scales. We thus propose a
practical and efficient 3D representation that incorporates an equivariant
radiance field with the guidance of a bird's-eye view (BEV) map. Concretely,
objects of synthesized 3D scenes could be easily manipulated through steering
the corresponding BEV maps. Moreover, by adequately incorporating positional
encoding and low-pass filters into the generator, the representation becomes
equivariant to the given BEV map. Such equivariance allows us to produce
large-scale, even infinite-scale, 3D scenes via synthesizing local scenes and
then stitching them with smooth consistency. Extensive experiments on 3D scene
datasets demonstrate the effectiveness of our approach. Our project website is
at https://zqh0253.github.io/BerfScene/.
- Abstract(参考訳): 大規模な3Dシーンを生成する場合、3Dシーンは通常複雑な空間構成を持ち、様々なスケールで多数のオブジェクトで構成されるため、既存の3Dオブジェクト合成技術は単純に適用できない。
そこで我々は,同変放射場を鳥眼図(BEV)で表した実用的で効率的な3D表現を提案する。
具体的には、合成された3Dシーンのオブジェクトは、対応するBEVマップを操ることで容易に操作できる。
さらに、位置符号化と低パスフィルタを適切にジェネレータに組み込むことで、表現は与えられたBEVマップに同値となる。
このような均等性により、局所的なシーンを合成し、スムーズな一貫性で縫い合わせることで、大規模で無限スケールの3Dシーンを作成できる。
3次元シーンデータセットの大規模な実験は、我々のアプローチの有効性を実証する。
プロジェクトのWebサイトはhttps://zqh0253.github.io/BerfScene/にあります。
関連論文リスト
- LT3SD: Latent Trees for 3D Scene Diffusion [71.91446143124648]
本稿では,大規模3次元シーン生成のための新しい潜時拡散モデルLT3SDを提案する。
大規模かつ高品質な非条件3Dシーン生成におけるLT3SDの有効性とメリットを実証する。
論文 参考訳(メタデータ) (2024-09-12T16:55:51Z) - GALA3D: Towards Text-to-3D Complex Scene Generation via Layout-guided Generative Gaussian Splatting [52.150502668874495]
GALA3D, GALA3D, 生成3D GAussian, LAyout-guided control, for effective compositional text-to-3D generation。
GALA3Dは、最先端のシーンレベルの3Dコンテンツ生成と制御可能な編集のための、ユーザフレンドリーでエンドツーエンドのフレームワークである。
論文 参考訳(メタデータ) (2024-02-11T13:40:08Z) - SceneWiz3D: Towards Text-guided 3D Scene Composition [134.71933134180782]
既存のアプローチでは、大規模なテキスト・ツー・イメージモデルを使用して3D表現を最適化するか、オブジェクト中心のデータセット上で3Dジェネレータをトレーニングする。
テキストから高忠実度3Dシーンを合成する新しい手法であるSceneWiz3Dを紹介する。
論文 参考訳(メタデータ) (2023-12-13T18:59:30Z) - Gaussian Grouping: Segment and Edit Anything in 3D Scenes [65.49196142146292]
ガウシアン・グルーピング(ガウシアン・グルーピング)はガウシアン・スプラッティングを拡張して,オープンワールドの3Dシーンで何かを共同で再構築・分割する。
暗黙のNeRF表現と比較すると,グループ化された3次元ガウシアンは,高画質,微粒度,高効率で,あらゆるものを3次元で再構成,分割,編集することができる。
論文 参考訳(メタデータ) (2023-12-01T17:09:31Z) - CC3D: Layout-Conditioned Generation of Compositional 3D Scenes [49.281006972028194]
本稿では,複雑な3次元シーンを2次元セマンティックなシーンレイアウトで合成する条件生成モデルであるCC3Dを紹介する。
合成3D-FRONTと実世界のKITTI-360データセットに対する評価は、我々のモデルが視覚的および幾何学的品質を改善したシーンを生成することを示す。
論文 参考訳(メタデータ) (2023-03-21T17:59:02Z) - 3inGAN: Learning a 3D Generative Model from Images of a Self-similar
Scene [34.2144933185175]
3inGANは、単一の自己相似3Dシーンの2D画像から訓練された無条件3D生成モデルである。
実地および合成源から得られた,様々なスケールと複雑さの半確率的な場面での結果を示す。
論文 参考訳(メタデータ) (2022-11-27T18:03:21Z) - Learning 3D Scene Priors with 2D Supervision [37.79852635415233]
本研究では,3次元の地平を必要とせず,レイアウトや形状の3次元シーンを学習するための新しい手法を提案する。
提案手法は, 3次元シーンを潜在ベクトルとして表現し, クラスカテゴリを特徴とするオブジェクト列に段階的に復号化することができる。
3D-FRONT と ScanNet による実験により,本手法は単一視点再構成における技術状況よりも優れていた。
論文 参考訳(メタデータ) (2022-11-25T15:03:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。