論文の概要: SceneLinker: Compositional 3D Scene Generation via Semantic Scene Graph from RGB Sequences
- arxiv url: http://arxiv.org/abs/2602.02974v1
- Date: Tue, 03 Feb 2026 01:22:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.173926
- Title: SceneLinker: Compositional 3D Scene Generation via Semantic Scene Graph from RGB Sequences
- Title(参考訳): SceneLinker:RGBシーケンスからのセマンティックシーングラフによる合成3次元シーン生成
- Authors: Seok-Young Kim, Dooyoung Kim, Woojin Cho, Hail Song, Suji Kang, Woontack Woo,
- Abstract要約: SceneLinkerはRGBシーケンスからセマンティックシーングラフによって構成的な3Dシーンを生成するフレームワークである。
我々の研究により、ユーザーはシーングラフを通して物理的な環境から一貫した3D空間を生成でき、空間的混合現実感(MR)コンテンツを作成することができる。
- 参考スコア(独自算出の注目度): 12.771171646896468
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce SceneLinker, a novel framework that generates compositional 3D scenes via semantic scene graph from RGB sequences. To adaptively experience Mixed Reality (MR) content based on each user's space, it is essential to generate a 3D scene that reflects the real-world layout by compactly capturing the semantic cues of the surroundings. Prior works struggled to fully capture the contextual relationship between objects or mainly focused on synthesizing diverse shapes, making it challenging to generate 3D scenes aligned with object arrangements. We address these challenges by designing a graph network with cross-check feature attention for scene graph prediction and constructing a graph-variational autoencoder (graph-VAE), which consists of a joint shape and layout block for 3D scene generation. Experiments on the 3RScan/3DSSG and SG-FRONT datasets demonstrate that our approach outperforms state-of-the-art methods in both quantitative and qualitative evaluations, even in complex indoor environments and under challenging scene graph constraints. Our work enables users to generate consistent 3D spaces from their physical environments via scene graphs, allowing them to create spatial MR content. Project page is https://scenelinker2026.github.io.
- Abstract(参考訳): 本稿では,RGBシーケンスからのセマンティックシーングラフによる合成3Dシーンを生成する新しいフレームワークであるSceneLinkerを紹介する。
ユーザの空間に基づいてMR(Mixed Reality)コンテンツを適応的に体験するためには、周囲のセマンティックキューをコンパクトにキャプチャすることで、現実世界のレイアウトを反映した3Dシーンを生成することが不可欠である。
以前の作品では、物体間の文脈的関係を完全に捉えたり、様々な形状の合成に主眼を置いていたため、物体の配置に合わせて3Dシーンを生成するのが困難であった。
シーングラフ予測のためのクロスチェック機能付きグラフネットワークを設計し、3次元シーン生成のための関節形状とレイアウトブロックからなるグラフ変分オートエンコーダ(グラフVAE)を構築することにより、これらの課題に対処する。
3RScan/3DSSGデータセットとSG-FRONTデータセットを用いた実験により,複雑な屋内環境や挑戦的なシーングラフ制約下でも,定量的および定性的な評価において,我々の手法が最先端の手法より優れていることが示された。
我々の研究により、ユーザーはシーングラフを通して物理的な環境から一貫した3D空間を生成でき、空間MRコンテンツを作成できる。
プロジェクトページはhttps://scenelinker2026.github.io。
関連論文リスト
- Toward Scene Graph and Layout Guided Complex 3D Scene Generation [31.396230860775415]
Scene GraphとLayout Guided 3D Scene Generation(GraLa3D)の新たなフレームワークを提案する。
複雑な3Dシーンを記述するテキストプロンプトが与えられたとき、GraLa3Dはレイアウト境界ボックス情報を持つシーングラフ表現を使用してシーンをモデル化する。
GraLa3Dは、単一オブジェクトノードと複合スーパーノードでシーングラフを独自に構築する。
論文 参考訳(メタデータ) (2024-12-29T14:21:03Z) - Planner3D: LLM-enhanced graph prior meets 3D indoor scene explicit regularization [31.52569918586902]
3Dシーンの合成は、ロボティクス、映画、ビデオゲームといった様々な産業に多様な応用がある。
本稿では,シーングラフからリアルで合理的な屋内シーンを生成することを目的とする。
本手法は,特にシーンレベルの忠実度の観点から,より優れた3次元シーン合成を実現する。
論文 参考訳(メタデータ) (2024-03-19T15:54:48Z) - SceneWiz3D: Towards Text-guided 3D Scene Composition [134.71933134180782]
既存のアプローチでは、大規模なテキスト・ツー・イメージモデルを使用して3D表現を最適化するか、オブジェクト中心のデータセット上で3Dジェネレータをトレーニングする。
テキストから高忠実度3Dシーンを合成する新しい手法であるSceneWiz3Dを紹介する。
論文 参考訳(メタデータ) (2023-12-13T18:59:30Z) - 3D Scene Diffusion Guidance using Scene Graphs [3.207455883863626]
本研究では,シーングラフを用いた3次元シーン拡散誘導手法を提案する。
シーングラフが提供する相対的空間情報を活用するため,我々はデノナイジングネットワーク内の関係グラフ畳み込みブロックを利用する。
論文 参考訳(メタデータ) (2023-08-08T06:16:37Z) - CommonScenes: Generating Commonsense 3D Indoor Scenes with Scene Graph
Diffusion [83.30168660888913]
シーングラフを対応する制御可能な3Dシーンに変換する完全生成モデルであるCommonScenesを提案する。
パイプラインは2つのブランチで構成されており、1つは変分オートエンコーダでシーン全体のレイアウトを予測し、もう1つは互換性のある形状を生成する。
生成されたシーンは、入力シーングラフを編集し、拡散モデルのノイズをサンプリングすることで操作することができる。
論文 参考訳(メタデータ) (2023-05-25T17:39:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。