論文の概要: SceneFactor: Factored Latent 3D Diffusion for Controllable 3D Scene Generation
- arxiv url: http://arxiv.org/abs/2412.01801v2
- Date: Tue, 03 Dec 2024 10:32:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:44:51.356737
- Title: SceneFactor: Factored Latent 3D Diffusion for Controllable 3D Scene Generation
- Title(参考訳): SceneFactor:制御可能な3次元シーン生成のための遅延3次元拡散
- Authors: Alexey Bokhovkin, Quan Meng, Shubham Tulsiani, Angela Dai,
- Abstract要約: SceneFactorは、大規模な3Dシーン生成のための拡散ベースのアプローチである。
制御可能な生成と手間のかかる編集を可能にする。
提案手法は,効率的な編集が可能な高忠実度3次元シーン合成を実現する。
- 参考スコア(独自算出の注目度): 44.354071773885735
- License:
- Abstract: We present SceneFactor, a diffusion-based approach for large-scale 3D scene generation that enables controllable generation and effortless editing. SceneFactor enables text-guided 3D scene synthesis through our factored diffusion formulation, leveraging latent semantic and geometric manifolds for generation of arbitrary-sized 3D scenes. While text input enables easy, controllable generation, text guidance remains imprecise for intuitive, localized editing and manipulation of the generated 3D scenes. Our factored semantic diffusion generates a proxy semantic space composed of semantic 3D boxes that enables controllable editing of generated scenes by adding, removing, changing the size of the semantic 3D proxy boxes that guides high-fidelity, consistent 3D geometric editing. Extensive experiments demonstrate that our approach enables high-fidelity 3D scene synthesis with effective controllable editing through our factored diffusion approach.
- Abstract(参考訳): 本稿では,大規模な3次元シーン生成のための拡散に基づく手法であるSceneFactorを提案する。
SceneFactorは、任意の大きさの3Dシーンを生成するために潜在意味と幾何学的多様体を活用することで、因子拡散の定式化によるテキスト誘導3Dシーンの合成を可能にする。
テキスト入力は簡単で制御可能な生成を可能にするが、生成した3Dシーンの直感的で局所的な編集と操作にはテキストガイダンスが不適切である。
我々の因子付きセマンティック拡散は、高忠実で一貫した3次元幾何学的編集を導くセマンティック3Dプロキシボックスの追加、削除、サイズ変更により、生成シーンの制御可能な編集を可能にするセマンティック3Dボックスからなるセマンティックセマンティック空間を生成する。
広汎な実験により,本手法は高忠実度3次元シーン合成が可能であり,有効に制御可能な編集が可能であることを実証した。
関連論文リスト
- Layout2Scene: 3D Semantic Layout Guided Scene Generation via Geometry and Appearance Diffusion Priors [52.63385546943866]
本稿では,3次元オブジェクト位置の正確な制御をインジェクションするプロンプトとして,追加のセマンティックレイアウトを用いたテキスト・ツー・シーン生成手法(Layout2Scene)を提案する。
幾何学および外見生成における2次元拡散先行をフル活用するために,意味誘導幾何拡散モデルと意味誘導幾何誘導拡散モデルを導入する。
我々の手法は、最先端のアプローチに比べて、より可塑性でリアルなシーンを生成することができる。
論文 参考訳(メタデータ) (2025-01-05T12:20:13Z) - LT3SD: Latent Trees for 3D Scene Diffusion [71.91446143124648]
本稿では,大規模3次元シーン生成のための新しい潜時拡散モデルLT3SDを提案する。
大規模かつ高品質な非条件3Dシーン生成におけるLT3SDの有効性とメリットを実証する。
論文 参考訳(メタデータ) (2024-09-12T16:55:51Z) - Coin3D: Controllable and Interactive 3D Assets Generation with Proxy-Guided Conditioning [52.81032340916171]
Coin3Dを使えば、ユーザーは基本的な形状から組み立てられた粗い幾何学的プロキシを使って3D生成を制御できる。
本手法は,3次元アセット生成タスクにおいて,制御性と柔軟性に優れる。
論文 参考訳(メタデータ) (2024-05-13T17:56:13Z) - GALA3D: Towards Text-to-3D Complex Scene Generation via Layout-guided Generative Gaussian Splatting [52.150502668874495]
GALA3D, GALA3D, 生成3D GAussian, LAyout-guided control, for effective compositional text-to-3D generation。
GALA3Dは、最先端のシーンレベルの3Dコンテンツ生成と制御可能な編集のための、ユーザフレンドリーでエンドツーエンドのフレームワークである。
論文 参考訳(メタデータ) (2024-02-11T13:40:08Z) - Progressive3D: Progressively Local Editing for Text-to-3D Content Creation with Complex Semantic Prompts [38.94299662658179]
本稿では,プログレッシブ3D(Progressive3D)というフレームワークを提案する。
編集ステップ毎にユーザ定義領域プロンプトによって決定される領域にのみコンテンツ変更が発生することを制約する。
大規模な実験により,提案するプログレッシブ3Dフレームワークが複雑な意味論を持つプロンプトに対して正確な3Dコンテンツを生成することが示された。
論文 参考訳(メタデータ) (2023-10-18T08:23:14Z) - Compositional 3D Scene Generation using Locally Conditioned Diffusion [49.5784841881488]
合成シーン拡散へのアプローチとして,テクスブフォローカライズ条件付き拡散を導入する。
本研究では, スコア蒸留によるテキスト・ツー・3D合成パイプラインを試作し, 関連するベースラインよりも高忠実度で合成3Dシーンを生成できることを示した。
論文 参考訳(メタデータ) (2023-03-21T22:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。