論文の概要: ScenePainter: Semantically Consistent Perpetual 3D Scene Generation with Concept Relation Alignment
- arxiv url: http://arxiv.org/abs/2507.19058v1
- Date: Fri, 25 Jul 2025 08:21:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-28 16:16:48.880733
- Title: ScenePainter: Semantically Consistent Perpetual 3D Scene Generation with Concept Relation Alignment
- Title(参考訳): ScenePainter: セマンティックに一貫性のある永続的な3Dシーン生成と概念関係のアライメント
- Authors: Chong Xia, Shengjun Zhang, Fangfu Liu, Chang Liu, Khodchaphun Hirunyaratsameewong, Yueqi Duan,
- Abstract要約: ScenePainterは意味的に一貫した3Dシーン生成のための新しいフレームワークである。
我々のフレームワークはセマンティックドリフト問題を克服し、より一貫性のある没入型3Dビューシーケンスを生成する。
- 参考スコア(独自算出の注目度): 13.983092770961514
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Perpetual 3D scene generation aims to produce long-range and coherent 3D view sequences, which is applicable for long-term video synthesis and 3D scene reconstruction. Existing methods follow a "navigate-and-imagine" fashion and rely on outpainting for successive view expansion. However, the generated view sequences suffer from semantic drift issue derived from the accumulated deviation of the outpainting module. To tackle this challenge, we propose ScenePainter, a new framework for semantically consistent 3D scene generation, which aligns the outpainter's scene-specific prior with the comprehension of the current scene. To be specific, we introduce a hierarchical graph structure dubbed SceneConceptGraph to construct relations among multi-level scene concepts, which directs the outpainter for consistent novel views and can be dynamically refined to enhance diversity. Extensive experiments demonstrate that our framework overcomes the semantic drift issue and generates more consistent and immersive 3D view sequences. Project Page: https://xiac20.github.io/ScenePainter/.
- Abstract(参考訳): 永続的な3Dシーン生成は,長期ビデオ合成と3Dシーン再構成に適用可能な,長距離かつコヒーレントな3Dビューシーケンスを生成することを目的としている。
既存の手法は「ナビゲート・アンド・イマジネート」な手法を踏襲し、連続した視野拡大のために外見に頼っている。
しかし、生成されたビューシーケンスは、アウトペイントモジュールの蓄積したずれから生じるセマンティックドリフト問題に悩まされる。
この課題に対処するために,ScenePainterを提案する。ScenePainterはセマンティックに一貫した3Dシーン生成のための新しいフレームワークで,アウトペイントのシーン固有化と現在のシーンの理解とを一致させる。
具体的には、SceneConceptGraphと呼ばれる階層的なグラフ構造を導入し、マルチレベルシーンの概念間の関係を構築する。
大規模な実験により、我々のフレームワークはセマンティックドリフト問題を克服し、より一貫性のある没入型3Dビューシーケンスを生成することを示した。
Project Page: https://xiac20.github.io/ScenePainter/.com
関連論文リスト
- Visibility-Uncertainty-guided 3D Gaussian Inpainting via Scene Conceptional Learning [63.94919846010485]
3DGI)は、複数の入力ビューから補完的な視覚的・意味的手がかりを効果的に活用することが困難である。
本稿では,異なる入力ビュー間での3Dポイントの視認性不確実性を計測し,それらを用いて3DGIを誘導する手法を提案する。
ViSibility-uncerTainty-guided 3DGIとシーンコンセプトAl学習を統合し,新しい3DGIフレームワークであるVISTAを構築した。
論文 参考訳(メタデータ) (2025-04-23T06:21:11Z) - Scene4U: Hierarchical Layered 3D Scene Reconstruction from Single Panoramic Image for Your Immerse Exploration [18.23983135970619]
本研究では,パノラマ画像を用いた新しい3次元シーン再構築フレームワークScene4Uを提案する。
具体的には、Scene4Uはオープン語彙セグメンテーションモデルと大きな言語モデルを統合して、実際のパノラマを複数の層に分解する。
次に、拡散モデルに基づく階層化された修復モジュールを用いて、視覚的手がかりと深度情報を用いて隠蔽領域を復元し、シーンの階層的表現を生成する。
Scene4Uは最先端の手法より優れ、LPIPSでは24.24%、BRISQUEでは24.40%向上し、訓練速度も最速となった。
論文 参考訳(メタデータ) (2025-04-01T03:17:24Z) - Toward Scene Graph and Layout Guided Complex 3D Scene Generation [31.396230860775415]
Scene GraphとLayout Guided 3D Scene Generation(GraLa3D)の新たなフレームワークを提案する。
複雑な3Dシーンを記述するテキストプロンプトが与えられたとき、GraLa3Dはレイアウト境界ボックス情報を持つシーングラフ表現を使用してシーンをモデル化する。
GraLa3Dは、単一オブジェクトノードと複合スーパーノードでシーングラフを独自に構築する。
論文 参考訳(メタデータ) (2024-12-29T14:21:03Z) - SceneDreamer360: Text-Driven 3D-Consistent Scene Generation with Panoramic Gaussian Splatting [53.32467009064287]
テキスト駆動型3D一貫性シーン生成モデルSceneDreamer360を提案する。
提案手法は,テキスト駆動パノラマ画像生成モデルを3次元シーン生成の先行モデルとして活用する。
SceneDreamer360はそのパノラマ画像生成と3DGSにより、より高品質で空間的に整合性があり、視覚的に魅力的な3Dシーンを任意のテキストプロンプトから生成できることを示した。
論文 参考訳(メタデータ) (2024-08-25T02:56:26Z) - LayerPano3D: Layered 3D Panorama for Hyper-Immersive Scene Generation [105.52153675890408]
3D没入型シーン生成はコンピュータビジョンとグラフィックスにおいて難しいが重要な課題である。
Layerpano3Dは、単一のテキストプロンプトからフルビューで探索可能なパノラマ3Dシーンを生成するための新しいフレームワークである。
論文 参考訳(メタデータ) (2024-08-23T17:50:23Z) - FastScene: Text-Driven Fast 3D Indoor Scene Generation via Panoramic Gaussian Splatting [15.648080938815879]
高速かつ高品質な3Dシーン生成のためのフレームワークであるFastSceneを提案する。
FastSceneは15分以内に3Dシーンを生成することができる。
論文 参考訳(メタデータ) (2024-05-09T13:44:16Z) - RefFusion: Reference Adapted Diffusion Models for 3D Scene Inpainting [63.567363455092234]
RefFusionは,画像インペイント拡散モデルのマルチスケールパーソナライズに基づく,新しい3Dインペイント手法である。
我々のフレームワークは、制御性を維持しながら、オブジェクト除去の最先端の成果を達成する。
論文 参考訳(メタデータ) (2024-04-16T17:50:02Z) - SceneWiz3D: Towards Text-guided 3D Scene Composition [134.71933134180782]
既存のアプローチでは、大規模なテキスト・ツー・イメージモデルを使用して3D表現を最適化するか、オブジェクト中心のデータセット上で3Dジェネレータをトレーニングする。
テキストから高忠実度3Dシーンを合成する新しい手法であるSceneWiz3Dを紹介する。
論文 参考訳(メタデータ) (2023-12-13T18:59:30Z) - SceneScape: Text-Driven Consistent Scene Generation [14.348512536556413]
本稿では,事前学習したテキスト・ツー・イメージモデルと事前学習した単眼深度予測モデルを組み合わせることで,このような動画をオンライン形式で生成する新しいフレームワークを提案する。
3次元の整合性を達成するための重要な課題に対処するため、オンラインテストタイムトレーニングを展開、現在のフレームの予測深度マップが合成シーンと幾何的に整合するように促す。
限定的な領域のみに適用できる以前の作品とは対照的に,本手法では,宇宙船や洞窟,あるいは氷の城の歩行など,多様な場面を創出する。
論文 参考訳(メタデータ) (2023-02-02T14:47:19Z) - Graph-to-3D: End-to-End Generation and Manipulation of 3D Scenes Using
Scene Graphs [85.54212143154986]
制御可能なシーン合成は、基本的な仕様を満たす3D情報を生成することで構成される。
シーングラフは、オブジェクト(ノード)とオブジェクト間の関係(エッジ)からなるシーンの表現である
本稿では,シーングラフから形状を直接エンドツーエンドに生成する手法を提案する。
論文 参考訳(メタデータ) (2021-08-19T17:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。