論文の概要: HLG: Comprehensive 3D Room Construction via Hierarchical Layout Generation
- arxiv url: http://arxiv.org/abs/2508.17832v2
- Date: Thu, 04 Sep 2025 09:06:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 14:03:59.076585
- Title: HLG: Comprehensive 3D Room Construction via Hierarchical Layout Generation
- Title(参考訳): HLG:階層レイアウト生成による総合的な3Dルーム構築
- Authors: Xiping Wang, Yuxi Wang, Mengqi Zhou, Junsong Fan, Zhaoxiang Zhang,
- Abstract要約: 階層レイアウト生成(HLG)は,微細な3次元シーン生成のための新しい手法である。
HLGは、大規模な家具配置から複雑なオブジェクト配置まで、シーンレイアウトを精錬する、粗大できめ細かな階層的アプローチを採用した最初の企業である。
既存の手法と比較して,現実的な屋内シーンの生成において優れた性能を示す。
- 参考スコア(独自算出の注目度): 31.010614667725843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Realistic 3D indoor scene generation is crucial for virtual reality, interior design, embodied intelligence, and scene understanding. While existing methods have made progress in coarse-scale furniture arrangement, they struggle to capture fine-grained object placements, limiting the realism and utility of generated environments. This gap hinders immersive virtual experiences and detailed scene comprehension for embodied AI applications. To address these issues, we propose Hierarchical Layout Generation (HLG), a novel method for fine-grained 3D scene generation. HLG is the first to adopt a coarse-to-fine hierarchical approach, refining scene layouts from large-scale furniture placement to intricate object arrangements. Specifically, our fine-grained layout alignment module constructs a hierarchical layout through vertical and horizontal decoupling, effectively decomposing complex 3D indoor scenes into multiple levels of granularity. Additionally, our trainable layout optimization network addresses placement issues, such as incorrect positioning, orientation errors, and object intersections, ensuring structurally coherent and physically plausible scene generation. We demonstrate the effectiveness of our approach through extensive experiments, showing superior performance in generating realistic indoor scenes compared to existing methods. This work advances the field of scene generation and opens new possibilities for applications requiring detailed 3D environments. We will release our code upon publication to encourage future research.
- Abstract(参考訳): リアルな3D屋内シーン生成は、仮想現実、インテリアデザイン、インボディードインテリジェンス、シーン理解に不可欠である。
既存の手法では、粗大な家具の配置が進んでいるが、細粒度のオブジェクト配置を捉えるのに苦労し、生成された環境の現実性と有用性を制限している。
このギャップは、没入型仮想体験と、具体化されたAIアプリケーションのための詳細なシーン理解を妨げる。
これらの問題に対処するため,我々は階層レイアウト生成(HLG)を提案する。
HLGは、大規模な家具配置から複雑なオブジェクト配置まで、シーンレイアウトを精錬する、粗大できめ細かな階層的アプローチを採用した最初の企業である。
具体的には,3次元室内の複雑なシーンを多段の粒度に分解し,垂直および水平の切り離しによる階層的レイアウトを構築する。
さらに、トレーニング可能なレイアウト最適化ネットワークは、不正確な位置決め、方向誤差、オブジェクト交差点などの配置問題に対処し、構造的に整合性があり、物理的に妥当なシーン生成を保証する。
提案手法の有効性を実験的に検証し,既存の手法と比較して現実的な屋内シーンの生成において優れた性能を示す。
この研究はシーン生成の分野を前進させ、詳細な3D環境を必要とするアプリケーションに新たな可能性を開く。
今後の研究を奨励するため、公開時にコードを公開します。
関連論文リスト
- RoomCraft: Controllable and Complete 3D Indoor Scene Generation [51.19602078504066]
RoomCraftは、実際の画像、スケッチ、テキスト記述をコヒーレントな3D屋内シーンに変換するマルチステージパイプラインである。
このアプローチでは,シーン生成パイプラインと制約駆動最適化フレームワークを組み合わせる。
RoomCraftは、リアルでセマンティックなコヒーレントで視覚的に魅力的な部屋レイアウトを生成する上で、既存の方法よりもはるかに優れています。
論文 参考訳(メタデータ) (2025-06-27T15:03:17Z) - Direct Numerical Layout Generation for 3D Indoor Scene Synthesis via Spatial Reasoning [27.872834485482276]
3D屋内シーン合成は、AIとデジタルコンテンツ作成の具体化に不可欠である。
既存のメソッドは、オープン語彙であり、きめ細かいユーザー指示に一致したシーンを生成するのに失敗する。
テキスト記述から数値的な3Dレイアウトを直接生成するフレームワークであるDirectを導入する。
論文 参考訳(メタデータ) (2025-06-05T17:59:42Z) - HiScene: Creating Hierarchical 3D Scenes with Isometric View Generation [50.206100327643284]
HiSceneは、2D画像生成と3Dオブジェクト生成のギャップを埋める新しい階層的なフレームワークである。
構成構造を維持しながら2次元表現に整合した3次元コンテンツを生成する。
論文 参考訳(メタデータ) (2025-04-17T16:33:39Z) - Architect: Generating Vivid and Interactive 3D Scenes with Hierarchical 2D Inpainting [47.014044892025346]
Architectは、拡散ベースの2Dイメージのインペイントを活用する、複雑で現実的な3Dエボダイド環境を作成する、生成フレームワークである。
我々のパイプラインはさらに階層的かつ反復的な塗装プロセスに拡張され、大きな家具や小さな物体の配置を連続的に生成し、シーンを豊かにする。
論文 参考訳(メタデータ) (2024-11-14T22:15:48Z) - Mixed Diffusion for 3D Indoor Scene Synthesis [55.94569112629208]
提案するMiDiffusionは,可塑性3次元屋内シーンを合成するための混合離散連続拡散モデルである。
床条件の3次元シーン合成において,最先端の自己回帰モデルおよび拡散モデルより優れることを示す。
論文 参考訳(メタデータ) (2024-05-31T17:54:52Z) - SceneWiz3D: Towards Text-guided 3D Scene Composition [134.71933134180782]
既存のアプローチでは、大規模なテキスト・ツー・イメージモデルを使用して3D表現を最適化するか、オブジェクト中心のデータセット上で3Dジェネレータをトレーニングする。
テキストから高忠実度3Dシーンを合成する新しい手法であるSceneWiz3Dを紹介する。
論文 参考訳(メタデータ) (2023-12-13T18:59:30Z) - SceneHGN: Hierarchical Graph Networks for 3D Indoor Scene Generation
with Fine-Grained Geometry [92.24144643757963]
3D屋内シーンは、インテリアデザインからゲーム、バーチャルおよび拡張現実に至るまで、コンピュータグラフィックスで広く使われている。
高品質な3D屋内シーンは、専門知識が必要であり、手動で高品質な3D屋内シーンを設計するのに時間を要する。
SCENEHGNは3次元屋内シーンの階層的なグラフネットワークであり,部屋レベルからオブジェクトレベルまでの全階層を考慮し,最後にオブジェクト部分レベルに展開する。
提案手法は, 立体形状の細かな家具を含む, 可塑性3次元室内容を直接生成し, 直接的に生成することができる。
論文 参考訳(メタデータ) (2023-02-16T15:31:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。