論文の概要: HiGS: Hierarchical Generative Scene Framework for Multi-Step Associative Semantic Spatial Composition
- arxiv url: http://arxiv.org/abs/2510.27148v1
- Date: Fri, 31 Oct 2025 03:50:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:15.969979
- Title: HiGS: Hierarchical Generative Scene Framework for Multi-Step Associative Semantic Spatial Composition
- Title(参考訳): HiGS:多段階連想意味空間構成のための階層的生成シーンフレームワーク
- Authors: Jiacheng Hong, Kunzhen Wu, Mingrui Yu, Yichao Gu, Shengze Xue, Shuangjiu Xiao, Deli Dong,
- Abstract要約: 多段階意味空間合成のための階層的生成フレームワークであるHiGSを提案する。
HiGSでは、キーセマンティックオブジェクトを選択して、興味のある領域を細かく制御することで、シーンを反復的に拡張することができる。
構造化とコヒーレントな生成を支援するために,我々は,プログレッシブ階層空間意味グラフを導入する。
- 参考スコア(独自算出の注目度): 1.9131307324613616
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Three-dimensional scene generation holds significant potential in gaming, film, and virtual reality. However, most existing methods adopt a single-step generation process, making it difficult to balance scene complexity with minimal user input. Inspired by the human cognitive process in scene modeling, which progresses from global to local, focuses on key elements, and completes the scene through semantic association, we propose HiGS, a hierarchical generative framework for multi-step associative semantic spatial composition. HiGS enables users to iteratively expand scenes by selecting key semantic objects, offering fine-grained control over regions of interest while the model completes peripheral areas automatically. To support structured and coherent generation, we introduce the Progressive Hierarchical Spatial-Semantic Graph (PHiSSG), which dynamically organizes spatial relationships and semantic dependencies across the evolving scene structure. PHiSSG ensures spatial and geometric consistency throughout the generation process by maintaining a one-to-one mapping between graph nodes and generated objects and supporting recursive layout optimization. Experiments demonstrate that HiGS outperforms single-stage methods in layout plausibility, style consistency, and user preference, offering a controllable and extensible paradigm for efficient 3D scene construction.
- Abstract(参考訳): 三次元シーン生成は、ゲーム、映画、バーチャルリアリティーにおいて大きな可能性を秘めている。
しかし、既存のほとんどのメソッドはシングルステップ生成プロセスを採用しており、シーンの複雑さを最小限のユーザ入力とバランスさせることが困難である。
グローバルからローカルへと進化するシーンモデリングにおける人間の認知プロセスに触発され、重要な要素に焦点が当てられ、セマンティックアソシエーションを通してシーンを完成させる。
HiGSは、ユーザーがキーセマンティックオブジェクトを選択してシーンを反復的に拡張し、モデルが周辺領域を自動的に完了する間、興味のある領域のきめ細かい制御を提供する。
本稿では, 階層型空間意味グラフ(PHiSSG)を導入し, 進化するシーン構造全体にわたって空間的関係や意味的依存関係を動的に整理する。
PHiSSGは、グラフノードと生成されたオブジェクト間の1対1マッピングを維持し、再帰的なレイアウト最適化をサポートすることにより、生成プロセスを通して空間的および幾何学的整合性を保証する。
実験により、HiGSはレイアウトの妥当性、スタイルの整合性、ユーザの好みにおいて単一ステージの手法よりも優れており、効率的な3Dシーン構築のための制御可能で拡張可能なパラダイムを提供する。
関連論文リスト
- KeySG: Hierarchical Keyframe-Based 3D Scene Graphs [1.5134439544218246]
KeySGは3Dシーンを、床、部屋、オブジェクト、機能要素からなる階層的なグラフとして表現している。
我々はVLMを利用してシーン情報を抽出し、オブジェクト間の関係エッジを明示的にモデル化する必要性を緩和する。
我々のアプローチは、大規模シーングラフに関連するスケーラビリティ問題を緩和しながら、複雑であいまいなクエリを処理できる。
論文 参考訳(メタデータ) (2025-10-01T15:53:27Z) - Graph-Guided Dual-Level Augmentation for 3D Scene Segmentation [21.553363236403822]
3Dポイントクラウドセグメンテーションは、シーン内の個々のポイントにセマンティックラベルを割り当てることを目的としている。
既存の手法では、大規模なアノテーションの負担を軽減するためにデータ拡張を採用するのが一般的である。
本稿では,現実的な3次元シーン合成のための2レベル制約付きグラフ誘導型データ拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-30T13:25:36Z) - X-Scene: Large-Scale Driving Scene Generation with High Fidelity and Flexible Controllability [49.4647778989539]
X-Sceneは大規模ドライビングシーン生成のための新しいフレームワークである。
幾何的複雑度と外観の忠実度の両方を実現し、フレキシブルな制御性を提供する。
X-Sceneは、大規模な運転シーン生成のための制御性と忠実性を大幅に向上させる。
論文 参考訳(メタデータ) (2025-06-16T14:43:18Z) - HiScene: Creating Hierarchical 3D Scenes with Isometric View Generation [50.206100327643284]
HiSceneは、2D画像生成と3Dオブジェクト生成のギャップを埋める新しい階層的なフレームワークである。
構成構造を維持しながら2次元表現に整合した3次元コンテンツを生成する。
論文 参考訳(メタデータ) (2025-04-17T16:33:39Z) - Universal Scene Graph Generation [77.53076485727414]
本稿では,包括的セマンティックシーンを特徴付ける新しい表現であるUniversal Universal SG(USG)を紹介する。
クロスモーダルなオブジェクトアライメントとドメイン外課題の2つの重要なボトルネックに効果的に対処するUSG-Parについても紹介する。
論文 参考訳(メタデータ) (2025-03-19T08:55:06Z) - CommonScenes: Generating Commonsense 3D Indoor Scenes with Scene Graph
Diffusion [83.30168660888913]
シーングラフを対応する制御可能な3Dシーンに変換する完全生成モデルであるCommonScenesを提案する。
パイプラインは2つのブランチで構成されており、1つは変分オートエンコーダでシーン全体のレイアウトを予測し、もう1つは互換性のある形状を生成する。
生成されたシーンは、入力シーングラフを編集し、拡散モデルのノイズをサンプリングすることで操作することができる。
論文 参考訳(メタデータ) (2023-05-25T17:39:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。