論文の概要: SemLayoutDiff: Semantic Layout Generation with Diffusion Model for Indoor Scene Synthesis
- arxiv url: http://arxiv.org/abs/2508.18597v1
- Date: Tue, 26 Aug 2025 02:01:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.637156
- Title: SemLayoutDiff: Semantic Layout Generation with Diffusion Model for Indoor Scene Synthesis
- Title(参考訳): SemLayoutDiff:室内シーン合成のための拡散モデルを用いたセマンティックレイアウト生成
- Authors: Xiaohao Sun, Divyam Goel, Angle X. Chang,
- Abstract要約: SemDiffは、複数のルームタイプにまたがる多様な3D屋内シーンの統一モデルである。
空間的コヒーレントでリアルで多様なシーンを生成し、以前の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present SemLayoutDiff, a unified model for synthesizing diverse 3D indoor scenes across multiple room types. The model introduces a scene layout representation combining a top-down semantic map and attributes for each object. Unlike prior approaches, which cannot condition on architectural constraints, SemLayoutDiff employs a categorical diffusion model capable of conditioning scene synthesis explicitly on room masks. It first generates a coherent semantic map, followed by a cross-attention-based network to predict furniture placements that respect the synthesized layout. Our method also accounts for architectural elements such as doors and windows, ensuring that generated furniture arrangements remain practical and unobstructed. Experiments on the 3D-FRONT dataset show that SemLayoutDiff produces spatially coherent, realistic, and varied scenes, outperforming previous methods.
- Abstract(参考訳): 室内の多様なシーンを複数のルームタイプで合成する統合モデルSemLayoutDiffを提案する。
モデルでは、トップダウンのセマンティックマップと各オブジェクトの属性を組み合わせたシーンレイアウトの表現を導入している。
アーキテクチャ上の制約を条件付けできない従来のアプローチとは異なり、SemLayoutDiffでは、ルームマスクにシーン合成を明示的に条件付け可能なカテゴリ拡散モデルを採用している。
まず、コヒーレントなセマンティックマップを生成し、次に、合成されたレイアウトを尊重する家具配置を予測するクロスアテンションベースのネットワークを生成する。
また、ドアや窓などの建築要素も考慮し、生成した家具の配置が実用的で邪魔にならないようにした。
3D-FRONTデータセットの実験では、SemLayoutDiffは空間的に一貫性があり、リアルで、さまざまなシーンを生成し、従来の手法よりも優れていた。
関連論文リスト
- ReSpace: Text-Driven 3D Scene Synthesis and Editing with Preference Alignment [1.0918065824771606]
ReSpaceはテキスト駆動型屋内シーン合成と編集のための生成フレームワークである。
教師付き微調整と選好アライメントを組み合わせた二段階学習手法を応用した。
シーン編集にはゼロショットLLMを用いてオブジェクトの削除と追加のプロンプトを行う。
論文 参考訳(メタデータ) (2025-06-03T05:22:04Z) - Mixed Diffusion for 3D Indoor Scene Synthesis [55.94569112629208]
提案するMiDiffusionは,可塑性3次元屋内シーンを合成するための混合離散連続拡散モデルである。
床条件の3次元シーン合成において,最先端の自己回帰モデルおよび拡散モデルより優れることを示す。
論文 参考訳(メタデータ) (2024-05-31T17:54:52Z) - CommonScenes: Generating Commonsense 3D Indoor Scenes with Scene Graph
Diffusion [83.30168660888913]
シーングラフを対応する制御可能な3Dシーンに変換する完全生成モデルであるCommonScenesを提案する。
パイプラインは2つのブランチで構成されており、1つは変分オートエンコーダでシーン全体のレイアウトを予測し、もう1つは互換性のある形状を生成する。
生成されたシーンは、入力シーングラフを編集し、拡散モデルのノイズをサンプリングすることで操作することができる。
論文 参考訳(メタデータ) (2023-05-25T17:39:13Z) - DiffuScene: Denoising Diffusion Models for Generative Indoor Scene
Synthesis [44.521452102413534]
拡散モデルに基づく屋内3次元シーン合成のためのDiffuSceneを提案する。
非順序オブジェクトセットに格納された3Dインスタンスプロパティを生成し、各オブジェクト設定に最もよく似た幾何学を検索する。
論文 参考訳(メタデータ) (2023-03-24T18:00:15Z) - ATISS: Autoregressive Transformers for Indoor Scene Synthesis [112.63708524926689]
我々は,合成室内環境を構築するための新しい自己回帰型トランスフォーマーアーキテクチャであるATISSを紹介する。
この定式化は、ATISSが完全に自動的な部屋レイアウト合成を超えて一般的に有用になるため、より自然なものであると我々は主張する。
本モデルは,ラベル付き3Dバウンディングボックスのみを監督として,自動回帰生成モデルとしてエンドツーエンドで訓練されている。
論文 参考訳(メタデータ) (2021-10-07T17:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。