論文の概要: TGSFormer: Scalable Temporal Gaussian Splatting for Embodied Semantic Scene Completion
- arxiv url: http://arxiv.org/abs/2512.00300v1
- Date: Sat, 29 Nov 2025 03:47:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.158092
- Title: TGSFormer: Scalable Temporal Gaussian Splatting for Embodied Semantic Scene Completion
- Title(参考訳): TGSFormer: エンボディード・セマンティック・シーン・コンプリートのための拡張型テンポラルガウス・スプレイティング
- Authors: Rui Qian, Haozhi Cao, Tianchen Deng, Tianxin Hu, Weixiang Guo, Shenghai Yuan, Lihua Xie,
- Abstract要約: Embodied 3D Semantic Scene Completionは、連続した自我中心の観測から密集した幾何学と意味を推測する。
最近のDeep-Guidedアプローチはこの問題を軽減するが、スケールが増加するにつれてレイテンシとメモリオーバーヘッドに悩まされ、ローカルのままである。
SSCを具現化するための拡張性のある時空間ガウス分割フレームワーク TGSFormer を提案する。
- 参考スコア(独自算出の注目度): 38.31128137855632
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Embodied 3D Semantic Scene Completion (SSC) infers dense geometry and semantics from continuous egocentric observations. Most existing Gaussian-based methods rely on random initialization of many primitives within predefined spatial bounds, resulting in redundancy and poor scalability to unbounded scenes. Recent depth-guided approach alleviates this issue but remains local, suffering from latency and memory overhead as scale increases. To overcome these challenges, we propose TGSFormer, a scalable Temporal Gaussian Splatting framework for embodied SSC. It maintains a persistent Gaussian memory for temporal prediction, without relying on image coherence or frame caches. For temporal fusion, a Dual Temporal Encoder jointly processes current and historical Gaussian features through confidence-aware cross-attention. Subsequently, a Confidence-aware Voxel Fusion module merges overlapping primitives into voxel-aligned representations, regulating density and maintaining compactness. Extensive experiments demonstrate that TGSFormer achieves state-of-the-art results on both local and embodied SSC benchmarks, offering superior accuracy and scalability with significantly fewer primitives while maintaining consistent long-term scene integrity. The code will be released upon acceptance.
- Abstract(参考訳): Embodied 3D Semantic Scene Completion (SSC)は、連続した自我中心の観測から密度の高い幾何学と意味を推測する。
既存のガウス的手法の多くは、予め定義された空間境界内の多くの原始体のランダムな初期化に依存しており、冗長性と非有界シーンへのスケーラビリティの低下をもたらす。
最近のDeep-Guidedアプローチはこの問題を軽減するが、スケールが増加するにつれてレイテンシとメモリオーバーヘッドに悩まされ、ローカルのままである。
これらの課題を克服するために,拡張性のある時空間ガウススティングフレームワークである TGSFormer を提案する。
画像コヒーレンスやフレームキャッシュに頼ることなく、時間的予測のために永続的なガウスメモリを維持している。
時間融合のために、デュアルテンポラルエンコーダは、信頼を意識したクロスアテンションを通じて、現在のガウス的特徴と歴史的なガウス的特徴を共同で処理する。
その後、信頼を意識したVoxel Fusionモジュールは、重複プリミティブをボクセル整列表現にマージし、密度を規制し、コンパクト性を維持する。
大規模な実験により、TGSFormerは局所的および具体的SSCベンチマークの両方で最先端の結果を達成し、安定した長期的なシーンの整合性を維持しつつ、プリミティブを著しく少なくした精度とスケーラビリティを提供する。
コードは受理時にリリースされます。
関連論文リスト
- SVRecon: Sparse Voxel Rasterization for Surface Reconstruction [60.92372415355283]
我々は最近提案されたスパースボキセル化パラダイムをSVReconの統合により高忠実度表面再構成の課題に拡張する。
本手法は, 常に高速な収束を保ちながら, 強い復元精度を実現する。
論文 参考訳(メタデータ) (2025-11-21T16:32:01Z) - ConeGS: Error-Guided Densification Using Pixel Cones for Improved Reconstruction with Fewer Primitives [27.616880434926646]
3D Gaussian Splattingは、新しいビュー合成における最先端の画像品質とリアルタイム性能を実現する。
問題は、既存の幾何学に沿ってガウスを伝播させるクローンベースの密度化に起因している。
本研究では,既存のシーン形状に依存しない画像空間インフォームド・デンシフィケーション・フレームワークであるConeGSについて述べる。
論文 参考訳(メタデータ) (2025-11-10T07:54:58Z) - D$^2$GS: Depth-and-Density Guided Gaussian Splatting for Stable and Accurate Sparse-View Reconstruction [73.61056394880733]
3D Gaussian Splatting (3DGS)は、3D表現を明示したリアルタイムかつ高忠実なノベルビュー合成(NVS)を可能にする。
疎視条件下では,カメラ近傍のガウス密度が過大な地域での過度適合と,ガウス範囲が不十分な遠隔地での過度適合の2つの重要な障害モードを同定する。
本稿では,奥行き案内型ドロップアウト戦略と距離認識型フィデリティ拡張モジュールという,2つの主要なコンポーネントからなる統合フレームワークD$2$GSを提案する。
論文 参考訳(メタデータ) (2025-10-09T17:59:49Z) - ST-GS: Vision-Based 3D Semantic Occupancy Prediction with Spatial-Temporal Gaussian Splatting [21.87807066521776]
3次元占有予測は、視覚中心の自律運転における総合的なシーン理解に不可欠である。
近年, 計算オーバーヘッドを低減しつつ, 3次元意味ガウスモデルを用いて占有率をモデル化する研究が進められている。
本稿では,時空間モデリングと時空間モデリングの両立を図るため,新しい時空間ガウススティング(ST-GS)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-20T06:36:30Z) - Segmentation-Driven Initialization for Sparse-view 3D Gaussian Splatting [0.9251324073335035]
3D Gaussian Splatting (3DGS)は、競争力のあるリアルタイムレンダリングを可能にした。
既存のパイプラインは、しばしばカメラポーズ推定にStructure-from-Motion(SfM)に依存している。
本研究では,構造的に重要な領域のみを識別・保持するために,領域ベースセグメンテーションを活用して非効率を緩和する手法を提案する。
論文 参考訳(メタデータ) (2025-09-15T12:31:33Z) - SplatSSC: Decoupled Depth-Guided Gaussian Splatting for Semantic Scene Completion [31.116931865374564]
3Dセマンティックシーンコンプリート(Semantic Scene Completion)は、1つの画像からシーンの密集した幾何学的、意味的な記述を推論することを目的とした、挑戦的で有望なタスクである。
本稿では,これらの制約を,奥行き誘導初期化戦略とガウスアグリゲータにより解決する新しいフレームワークであるSplatSSCを提案する。
提案手法は,Occ-ScanNetデータセット上での最先端性能を実現し,IoUの6.3%,mIoUの4.1%以上の先行手法より優れていた。
論文 参考訳(メタデータ) (2025-08-04T10:09:31Z) - STDR: Spatio-Temporal Decoupling for Real-Time Dynamic Scene Rendering [15.873329633980015]
既存の3DGSに基づく動的再構成法は、しばしばtextbfSTDR(リアルタイムレンダリングのための空間結合デテンポラル)に悩まされる
実時間レンダリングのためのテキストbfSTDR (Spatio-coupling DeTemporal for Real-time rendering) を提案する。
論文 参考訳(メタデータ) (2025-05-28T14:26:41Z) - MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [100.90743697473232]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
スパースビューからのシーン再構成が可能な3次元ガウススプラッティングに基づくビュー合成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z) - Distributed Stochastic Gradient Descent with Staleness: A Stochastic Delay Differential Equation Based Framework [56.82432591933544]
分散勾配降下(SGD)は、計算リソースのスケーリング、トレーニング時間の短縮、マシンラーニングにおけるユーザのプライバシ保護の支援などにより、近年注目されている。
本稿では,遅延微分方程式(SDDE)と勾配到着の近似に基づく分散SGDの実行時間と安定化について述べる。
活性化作業員の増加は, 安定度による分散SGDを必ずしも加速させるものではないことが興味深い。
論文 参考訳(メタデータ) (2024-06-17T02:56:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。