論文の概要: SceneNAT: Masked Generative Modeling for Language-Guided Indoor Scene Synthesis
- arxiv url: http://arxiv.org/abs/2601.07218v1
- Date: Mon, 12 Jan 2026 05:24:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.225018
- Title: SceneNAT: Masked Generative Modeling for Language-Guided Indoor Scene Synthesis
- Title(参考訳): SceneNAT: 言語誘導屋内シーン合成のためのマスク生成モデル
- Authors: Jeongjun Choi, Yeonsoo Park, H. Jin Kim,
- Abstract要約: SceneNATは、自然言語から完全な3D屋内シーンを合成する、シングルステージのマスク付き非自律トランスフォーマーである。
SceneNATは、意味的属性と空間的属性の完全な離散化表現を通じて、マスク付きモデリングによって訓練される。
3D-FRONTデータセットの実験により、SceneNATは最先端の自己回帰と拡散ベースラインと比較して優れた性能を発揮することが示された。
- 参考スコア(独自算出の注目度): 20.364473705766326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present SceneNAT, a single-stage masked non-autoregressive Transformer that synthesizes complete 3D indoor scenes from natural language instructions through only a few parallel decoding passes, offering improved performance and efficiency compared to prior state-of-the-art approaches. SceneNAT is trained via masked modeling over fully discretized representations of both semantic and spatial attributes. By applying a masking strategy at both the attribute level and the instance level, the model can better capture intra-object and inter-object structure. To boost relational reasoning, SceneNAT employs a dedicated triplet predictor for modeling the scene's layout and object relationships by mapping a set of learnable relation queries to a sparse set of symbolic triplets (subject, predicate, object). Extensive experiments on the 3D-FRONT dataset demonstrate that SceneNAT achieves superior performance compared to state-of-the-art autoregressive and diffusion baselines in both semantic compliance and spatial arrangement accuracy, while operating with substantially lower computational cost.
- Abstract(参考訳): SceneNATは1段のマスク付き非自己回帰変換器で、自然言語命令から数個の並列デコードパスを通して完全な3D屋内シーンを合成し、従来の最先端手法と比較して性能と効率を向上する。
SceneNATは、意味的属性と空間的属性の完全な離散化表現を通じて、マスク付きモデリングによって訓練される。
属性レベルとインスタンスレベルの両方でマスキング戦略を適用することで、モデルがオブジェクト内およびオブジェクト間構造をよりよくキャプチャできる。
リレーショナル推論を強化するため、SceneNATでは、学習可能な関係クエリのセットをシンボル三重項(オブジェクト、述語、オブジェクト)のスパースセットにマッピングすることで、シーンのレイアウトとオブジェクトの関係をモデリングする専用の三重項予測器を採用している。
3D-FRONTデータセットの大規模な実験により、SceneNATは、セマンティックコンプライアンスと空間配置の精度の両方において、最先端の自己回帰ベースラインと拡散ベースラインと比較して、大幅に低い計算コストで動作しながら、優れた性能を達成することが示された。
関連論文リスト
- PrITTI: Primitive-based Generation of Controllable and Editable 3D Semantic Scenes [30.417675568919552]
大規模な3Dセマンティックシーン生成は、主にボクセルに基づく表現に依存している。
プリミティブは、操作や構成が容易なコンパクトで粗い3D構造を使って、セマンティックなエンティティを表現する。
PrITTIは遅延拡散に基づくフレームワークで、プリミティブを作曲、制御可能、編集可能なシーンレイアウトを生成するための基本的な要素として活用する。
論文 参考訳(メタデータ) (2025-06-23T20:47:18Z) - CasaGPT: Cuboid Arrangement and Scene Assembly for Interior Design [35.11283253765395]
室内シーン合成のための新しい手法として,分解した立方体プリミティブをシーン内の3次元オブジェクトに配置する手法を提案する。
提案手法はCuboid Arrangement and Scene AssemblyのCasaGPTと呼ばれ, 自動回帰モデルを用いてキューブを逐次配置し, 物理的に可視なシーンを生成する。
論文 参考訳(メタデータ) (2025-04-28T04:35:04Z) - IAAO: Interactive Affordance Learning for Articulated Objects in 3D Environments [56.85804719947]
IAAOは知的エージェントのための明示的な3Dモデルを構築するフレームワークで,対話を通して環境内の明瞭な物体の理解を得る。
マスク特徴とビュー一貫性ラベルを多視点画像から抽出し,まず3次元ガウススティング(3DGS)を用いて各オブジェクト状態の階層的特徴とラベルフィールドを構築する。
次に、3Dガウスプリミティブ上でオブジェクトと部分レベルのクエリを実行し、静的および明瞭な要素を識別し、大域的な変換と局所的な調音パラメータをアベイランスとともに推定する。
論文 参考訳(メタデータ) (2025-04-09T12:36:48Z) - Mixed Diffusion for 3D Indoor Scene Synthesis [55.94569112629208]
提案するMiDiffusionは,可塑性3次元屋内シーンを合成するための混合離散連続拡散モデルである。
床条件の3次元シーン合成において,最先端の自己回帰モデルおよび拡散モデルより優れることを示す。
論文 参考訳(メタデータ) (2024-05-31T17:54:52Z) - DreamScape: 3D Scene Creation via Gaussian Splatting joint Correlation Modeling [23.06464506261766]
テキストから3Dシーンを生成するDreamScapeを提案する。
LLMを用いたテキストから意味的プリミティブ、空間変換、関係をエンコードする3Dガウスガイドを使用する。
DreamScapeは最先端のパフォーマンスを実現し、高忠実でコントロール可能な3Dシーン生成を可能にする。
論文 参考訳(メタデータ) (2024-04-14T12:13:07Z) - CommonScenes: Generating Commonsense 3D Indoor Scenes with Scene Graph
Diffusion [83.30168660888913]
シーングラフを対応する制御可能な3Dシーンに変換する完全生成モデルであるCommonScenesを提案する。
パイプラインは2つのブランチで構成されており、1つは変分オートエンコーダでシーン全体のレイアウトを予測し、もう1つは互換性のある形状を生成する。
生成されたシーンは、入力シーングラフを編集し、拡散モデルのノイズをサンプリングすることで操作することができる。
論文 参考訳(メタデータ) (2023-05-25T17:39:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。