論文の概要: PSGS: Text-driven Panorama Sliding Scene Generation via Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2602.00463v1
- Date: Sat, 31 Jan 2026 02:34:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.201152
- Title: PSGS: Text-driven Panorama Sliding Scene Generation via Gaussian Splatting
- Title(参考訳): PSGS:ガウススプレイティングによるテキスト駆動パノラマスライディングシーン生成
- Authors: Xin Zhang, Shen Chen, Jiale Zhou, Lei Li,
- Abstract要約: 高忠実パノラマシーン生成のためのフレームワークPSGSを提案する。
まず、新しい2層最適化アーキテクチャが意味的にコヒーレントなパノラマを生成する。
第2に、我々のパノラマスライディング機構は、グローバルに一貫した3次元ガウススプラッティング点雲を初期化する。
- 参考スコア(独自算出の注目度): 18.048020748522312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating realistic 3D scenes from text is crucial for immersive applications like VR, AR, and gaming. While text-driven approaches promise efficiency, existing methods suffer from limited 3D-text data and inconsistent multi-view stitching, resulting in overly simplistic scenes. To address this, we propose PSGS, a two-stage framework for high-fidelity panoramic scene generation. First, a novel two-layer optimization architecture generates semantically coherent panoramas: a layout reasoning layer parses text into structured spatial relationships, while a self-optimization layer refines visual details via iterative MLLM feedback. Second, our panorama sliding mechanism initializes globally consistent 3D Gaussian Splatting point clouds by strategically sampling overlapping perspectives. By incorporating depth and semantic coherence losses during training, we greatly improve the quality and detail fidelity of rendered scenes. Our experiments demonstrate that PSGS outperforms existing methods in panorama generation and produces more appealing 3D scenes, offering a robust solution for scalable immersive content creation.
- Abstract(参考訳): VRやAR、ゲームといった没入型アプリケーションには、テキストからリアルな3Dシーンを生成することが不可欠です。
テキスト駆動のアプローチは効率を約束するが、既存の手法では3Dテキストのデータに制限があり、複数ビューの縫い合わせが不整合である。
そこで本研究では,高忠実度パノラマシーン生成のための2段階フレームワークPSGSを提案する。
レイアウト推論層はテキストを構造化空間関係に解析し、自己最適化層は反復MLLMフィードバックによって視覚的詳細を洗練する。
第2に、我々のパノラマスライディング機構は、重なり合う視点を戦略的にサンプリングすることで、グローバルに一貫した3次元ガウス点雲を初期化する。
トレーニング中の深度とセマンティック・コヒーレンス・ロスを取り入れることで、描画シーンの品質とディテールの忠実度を大幅に改善する。
実験の結果,PSGSはパノラマ生成における既存の手法よりも優れており,より魅力的な3Dシーンを生成し,スケーラブルな没入型コンテンツ作成のための堅牢なソリューションを提供することがわかった。
関連論文リスト
- TiP4GEN: Text to Immersive Panorama 4D Scene Generation [82.8444414014506]
TiP4GENはテキストから動的パノラマシーン生成フレームワークである。
微粒なコンテンツ制御を可能にし、動きに富んだ幾何学的なパノラマ4Dシーンを合成する。
TiP4GENはパノラマビデオ生成と動的シーン再構成を統合し、360度没入型仮想環境を作成する。
論文 参考訳(メタデータ) (2025-08-17T16:02:24Z) - BloomScene: Lightweight Structured 3D Gaussian Splatting for Crossmodal Scene Generation [54.12899218104669]
3Dシーンは非常に複雑な構造を持ち、出力が密度が高く、一貫性があり、必要な全ての構造を含むことを保証する必要がある。
現在の3Dシーン生成法は、事前訓練されたテキスト・画像拡散モデルと単眼深度推定器に依存している。
クロスモーダルシーン生成のための軽量な3次元ガウススプラッティングであるBloomSceneを提案する。
論文 参考訳(メタデータ) (2025-01-15T11:33:34Z) - LayerPano3D: Layered 3D Panorama for Hyper-Immersive Scene Generation [105.52153675890408]
3D没入型シーン生成はコンピュータビジョンとグラフィックスにおいて難しいが重要な課題である。
Layerpano3Dは、単一のテキストプロンプトからフルビューで探索可能なパノラマ3Dシーンを生成するための新しいフレームワークである。
論文 参考訳(メタデータ) (2024-08-23T17:50:23Z) - HoloDreamer: Holistic 3D Panoramic World Generation from Text Descriptions [31.342899807980654]
3Dシーン生成は、仮想現実、ゲーム、映画産業など、さまざまな領域で高い需要がある。
フル3Dシーンの全体的初期化として,最初に高精細パノラマを生成するフレームワークであるHoloDreamerを紹介する。
そして、3Dガウススティング(3D-GS)を活用して3Dシーンを迅速に再構築し、ビュー一貫性と完全に囲まれた3Dシーンの作成を容易にする。
論文 参考訳(メタデータ) (2024-07-21T14:52:51Z) - DreamScape: 3D Scene Creation via Gaussian Splatting joint Correlation Modeling [23.06464506261766]
テキストから3Dシーンを生成するDreamScapeを提案する。
LLMを用いたテキストから意味的プリミティブ、空間変換、関係をエンコードする3Dガウスガイドを使用する。
DreamScapeは最先端のパフォーマンスを実現し、高忠実でコントロール可能な3Dシーン生成を可能にする。
論文 参考訳(メタデータ) (2024-04-14T12:13:07Z) - Text2Immersion: Generative Immersive Scene with 3D Gaussians [14.014016090679627]
Text2Immersionは、テキストプロンプトから高品質な3D没入シーンを生成するためのエレガントな方法である。
我々のシステムは、品質と多様性をレンダリングする他の手法を超越し、テキスト駆動の3Dシーン生成に向けてさらに前進している。
論文 参考訳(メタデータ) (2023-12-14T18:58:47Z) - SceneWiz3D: Towards Text-guided 3D Scene Composition [134.71933134180782]
既存のアプローチでは、大規模なテキスト・ツー・イメージモデルを使用して3D表現を最適化するか、オブジェクト中心のデータセット上で3Dジェネレータをトレーニングする。
テキストから高忠実度3Dシーンを合成する新しい手法であるSceneWiz3Dを紹介する。
論文 参考訳(メタデータ) (2023-12-13T18:59:30Z) - DeepPanoContext: Panoramic 3D Scene Understanding with Holistic Scene
Context Graph and Relation-based Optimization [66.25948693095604]
本研究では,パノラマ画像から各オブジェクトの3次元空間配置と形状,ポーズ,位置,意味的カテゴリを復元するパノラマ3次元シーン理解手法を提案する。
実験により, この手法は, パノラマシーン理解において, 幾何学的精度とオブジェクト配置の両方の観点から, 既存の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-08-24T13:55:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。