論文の概要: Controllable 3D Outdoor Scene Generation via Scene Graphs
- arxiv url: http://arxiv.org/abs/2503.07152v1
- Date: Mon, 10 Mar 2025 10:26:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:47:54.641745
- Title: Controllable 3D Outdoor Scene Generation via Scene Graphs
- Title(参考訳): シーングラフによる3次元屋外シーン生成の制御
- Authors: Yuheng Liu, Xinke Li, Yuning Zhang, Lu Qi, Xin Li, Wenping Wang, Chongshou Li, Xueting Li, Ming-Hsuan Yang,
- Abstract要約: 本研究では,スパースシーングラフを高密度なBEV埋め込みマップに変換するインタラクティブシステムを開発した。
推論中は、ユーザーは簡単にシーングラフを作成したり変更したりして、大規模な屋外シーンを生成することができる。
実験結果から,提案手法は入力シーングラフと密に一致した高品質な3次元都市景観を連続的に生成することが示された。
- 参考スコア(独自算出の注目度): 74.40967075159071
- License:
- Abstract: Three-dimensional scene generation is crucial in computer vision, with applications spanning autonomous driving, gaming and the metaverse. Current methods either lack user control or rely on imprecise, non-intuitive conditions. In this work, we propose a method that uses, scene graphs, an accessible, user friendly control format to generate outdoor 3D scenes. We develop an interactive system that transforms a sparse scene graph into a dense BEV (Bird's Eye View) Embedding Map, which guides a conditional diffusion model to generate 3D scenes that match the scene graph description. During inference, users can easily create or modify scene graphs to generate large-scale outdoor scenes. We create a large-scale dataset with paired scene graphs and 3D semantic scenes to train the BEV embedding and diffusion models. Experimental results show that our approach consistently produces high-quality 3D urban scenes closely aligned with the input scene graphs. To the best of our knowledge, this is the first approach to generate 3D outdoor scenes conditioned on scene graphs.
- Abstract(参考訳): 三次元シーン生成はコンピュータビジョンにおいて不可欠であり、自律運転、ゲーム、メタバースにまたがる応用がある。
現在の手法ではユーザコントロールが欠如しているか、不正確で直観的でない条件に依存している。
本研究では,屋外の3Dシーンを生成するために,シーングラフ,アクセシブルなユーザフレンドリな制御形式を利用する手法を提案する。
本研究では,スパースシーングラフを高密度なBEV (Bird's Eye View) 埋め込みマップに変換するインタラクティブなシステムを開発した。
推論中は、ユーザーは簡単にシーングラフを作成したり変更したりして、大規模な屋外シーンを生成することができる。
ペア化されたシーングラフと3Dセマンティックシーンを備えた大規模データセットを作成し、BEV埋め込みと拡散モデルをトレーニングします。
実験結果から,提案手法は入力シーングラフと密に一致した高品質な3次元都市景観を連続的に生成することが示された。
私たちの知る限りでは、シーングラフに条件付けされた3D屋外シーンを生成するための最初のアプローチである。
関連論文リスト
- Sketch2Scene: Automatic Generation of Interactive 3D Game Scenes from User's Casual Sketches [50.51643519253066]
3Dコンテンツ生成は、ビデオゲーム、映画制作、バーチャルおよび拡張現実など、多くのコンピュータグラフィックスアプリケーションの中心にある。
本稿では,インタラクティブでプレイ可能な3Dゲームシーンを自動的に生成するための,新しいディープラーニングベースのアプローチを提案する。
論文 参考訳(メタデータ) (2024-08-08T16:27:37Z) - 3D scene generation from scene graphs and self-attention [51.49886604454926]
本稿では,シーングラフとフロアプランから3次元シーンを合成する条件付き変分オートエンコーダ(cVAE)モデルを提案する。
我々は、シーン内のオブジェクト間の高レベルな関係をキャプチャするために、自己注意層の特性を利用する。
論文 参考訳(メタデータ) (2024-04-02T12:26:17Z) - 3D Scene Diffusion Guidance using Scene Graphs [3.207455883863626]
本研究では,シーングラフを用いた3次元シーン拡散誘導手法を提案する。
シーングラフが提供する相対的空間情報を活用するため,我々はデノナイジングネットワーク内の関係グラフ畳み込みブロックを利用する。
論文 参考訳(メタデータ) (2023-08-08T06:16:37Z) - CommonScenes: Generating Commonsense 3D Indoor Scenes with Scene Graph
Diffusion [83.30168660888913]
シーングラフを対応する制御可能な3Dシーンに変換する完全生成モデルであるCommonScenesを提案する。
パイプラインは2つのブランチで構成されており、1つは変分オートエンコーダでシーン全体のレイアウトを予測し、もう1つは互換性のある形状を生成する。
生成されたシーンは、入力シーングラフを編集し、拡散モデルのノイズをサンプリングすることで操作することができる。
論文 参考訳(メタデータ) (2023-05-25T17:39:13Z) - SGAligner : 3D Scene Alignment with Scene Graphs [84.01002998166145]
3Dシーングラフの構築は、いくつかの具体的AIアプリケーションのためのシーン表現のトピックとして登場した。
オーバーラップ可能な3次元シーングラフのペアをゼロから部分的に整列させるという基本的な問題に着目する。
そこで我々はSGAlignerを提案する。SGAlignerは3次元シーングラフのペアを組合わせるための最初の方法であり、その組込みシナリオに対して堅牢である。
論文 参考訳(メタデータ) (2023-04-28T14:39:22Z) - SceneGraphFusion: Incremental 3D Scene Graph Prediction from RGB-D
Sequences [76.28527350263012]
rgb-dフレームのシーケンスを与えられた3次元環境から意味的シーングラフを漸進的に構築する手法を提案する。
我々は、グラフニューラルネットワークを用いて、プリミティブシーンコンポーネントからpointnet機能を集約する。
提案手法は,35hzで動作する他の3dセマンティクスおよびパンオプティカルセグメンテーション法と同等の精度で,高いマージンで3dシーングラフ予測手法を上回る。
論文 参考訳(メタデータ) (2021-03-27T13:00:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。