論文の概要: SplatSSC: Decoupled Depth-Guided Gaussian Splatting for Semantic Scene Completion
- arxiv url: http://arxiv.org/abs/2508.02261v1
- Date: Mon, 04 Aug 2025 10:09:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.284517
- Title: SplatSSC: Decoupled Depth-Guided Gaussian Splatting for Semantic Scene Completion
- Title(参考訳): SplatSSC:Semantic Scene CompletionのためのDecoupled Depth-Guided Gaussian Splatting
- Authors: Rui Qian, Haozhi Cao, Tianchen Deng, Shenghai Yuan, Lihua Xie,
- Abstract要約: 3Dセマンティックシーンコンプリート(Semantic Scene Completion)は、1つの画像からシーンの密集した幾何学的、意味的な記述を推論することを目的とした、挑戦的で有望なタスクである。
本稿では,これらの制約を,奥行き誘導初期化戦略とガウスアグリゲータにより解決する新しいフレームワークであるSplatSSCを提案する。
提案手法は,Occ-ScanNetデータセット上での最先端性能を実現し,IoUの6.3%,mIoUの4.1%以上の先行手法より優れていた。
- 参考スコア(独自算出の注目度): 31.116931865374564
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Monocular 3D Semantic Scene Completion (SSC) is a challenging yet promising task that aims to infer dense geometric and semantic descriptions of a scene from a single image. While recent object-centric paradigms significantly improve efficiency by leveraging flexible 3D Gaussian primitives, they still rely heavily on a large number of randomly initialized primitives, which inevitably leads to 1) inefficient primitive initialization and 2) outlier primitives that introduce erroneous artifacts. In this paper, we propose SplatSSC, a novel framework that resolves these limitations with a depth-guided initialization strategy and a principled Gaussian aggregator. Instead of random initialization, SplatSSC utilizes a dedicated depth branch composed of a Group-wise Multi-scale Fusion (GMF) module, which integrates multi-scale image and depth features to generate a sparse yet representative set of initial Gaussian primitives. To mitigate noise from outlier primitives, we develop the Decoupled Gaussian Aggregator (DGA), which enhances robustness by decomposing geometric and semantic predictions during the Gaussian-to-voxel splatting process. Complemented with a specialized Probability Scale Loss, our method achieves state-of-the-art performance on the Occ-ScanNet dataset, outperforming prior approaches by over 6.3% in IoU and 4.1% in mIoU, while reducing both latency and memory consumption by more than 9.3%. The code will be released upon acceptance.
- Abstract(参考訳): モノクロ3Dセマンティックシーンコンプリート(SSC)は、単一の画像からシーンの密集した幾何学的、意味的な記述を推論することを目的とした、挑戦的で有望なタスクである。
最近のオブジェクト中心のパラダイムは柔軟な3Dガウスプリミティブを活用することで効率を著しく向上させるが、それでも多くのランダムに初期化プリミティブに依存しており、必然的にそれにつながる。
1)非効率な原始初期化と
2) 不正なアーティファクトを導入する外れやすいプリミティブ。
本稿では,これらの制約を,奥行き誘導初期化戦略と原理的ガウスアグリゲータを用いて解決する新しいフレームワークであるSplatSSCを提案する。
ランダム初期化の代わりに、SplatSSCはグループワイド・マルチスケール・フュージョン(GMF)モジュールからなる専用ディープブランチを使用して、マルチスケール画像とディープ機能を統合して、初期ガウスプリミティブのスパースで代表的なセットを生成する。
そこで我々は, ガウス-ボクセル分割過程において, 幾何的および意味的予測を分解することにより, 頑健性を高めるデカップリングガウスアグリゲータ (DGA) を開発した。
特殊なProbability Scale Lossを補完して,Occ-ScanNetデータセットの最先端性能を実現し,IoUが6.3%,mIoUが4.1%,待ち時間とメモリ消費が9.3%以上向上した。
コードは受理時にリリースされます。
関連論文リスト
- RobustSplat: Decoupling Densification and Dynamics for Transient-Free 3DGS [79.15416002879239]
3D Gaussian Splattingは、ノベルビュー合成と3Dモデリングにおけるリアルタイム、フォトリアリスティックレンダリングにおいて大きな注目を集めている。
既存の手法は、過渡的なオブジェクトに影響されたシーンを正確にモデル化するのに苦労し、描画された画像のアーティファクトに繋がる。
2つの重要な設計に基づく堅牢なソリューションであるRobustSplatを提案する。
論文 参考訳(メタデータ) (2025-06-03T11:13:48Z) - Steepest Descent Density Control for Compact 3D Gaussian Splatting [72.54055499344052]
3D Gaussian Splatting (3DGS)は、強力なリアルタイム高解像度ノベルビューとして登場した。
本稿では,3DGSの密度制御をデミストし,改良する理論的枠組みを提案する。
我々はSteepGSを導入し、コンパクトな点雲を維持しながら損失を最小限に抑える原則的戦略である、最も急な密度制御を取り入れた。
論文 参考訳(メタデータ) (2025-05-08T18:41:38Z) - ProtoGS: Efficient and High-Quality Rendering with 3D Gaussian Prototypes [81.48624894781257]
3D Gaussian Splatting (3DGS) は、新しいビュー合成において大きな進歩を遂げてきたが、ガウスプリミティブのかなりの数によって制限されている。
近年の手法では、密度の高いガウスの記憶容量を圧縮することでこの問題に対処しているが、レンダリングの品質と効率の維持には失敗している。
本稿では,ガウスの原始体を表現するためにガウスのプロトタイプを学習するProtoGSを提案し,視覚的品質を犠牲にすることなくガウスの総量を大幅に削減する。
論文 参考訳(メタデータ) (2025-03-21T18:55:14Z) - EasySplat: View-Adaptive Learning makes 3D Gaussian Splatting Easy [34.27245715540978]
高品質な3DGSモデリングを実現するための新しいフレームワークEasySplatを提案する。
本稿では、ビュー類似性に基づく効率的なグループ化戦略を提案し、高品質な点雲を得るためにロバストな点マップを前もって利用する。
信頼性の高いシーン構造を得た後、近隣のガウス楕円体の平均形状に基づいてガウス原始体を適応的に分割する新しいデンシフィケーション手法を提案する。
論文 参考訳(メタデータ) (2025-01-02T01:56:58Z) - TSGaussian: Semantic and Depth-Guided Target-Specific Gaussian Splatting from Sparse Views [18.050257821756148]
TSGaussianは、新しいビュー合成タスクにおける幾何学的劣化を避けるために、意味的制約と深さ事前の制約を組み合わせる新しいフレームワークである。
提案手法は,バックグラウンドアロケーションを最小化しながら,指定された目標に対する計算資源の優先順位付けを行う。
大規模な実験により、TSGaussianは3つの標準データセット上で最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-12-13T11:26:38Z) - MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [73.49548565633123]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
本稿では,3次元ガウス・スプレイティング(MCGS)に基づくビュー・フレームワークを提案し,スパークス・インプット・ビューからシーンを再構築する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z) - ShapeSplat: A Large-scale Dataset of Gaussian Splats and Their Self-Supervised Pretraining [104.34751911174196]
ShapeNetとModelNetを用いた大規模3DGSデータセットを構築した。
データセットのShapeSplatは、87のユニークなカテゴリから65Kのオブジェクトで構成されています。
textbftextitGaussian-MAEを導入し、ガウスパラメータからの表現学習の独特な利点を強調した。
論文 参考訳(メタデータ) (2024-08-20T14:49:14Z) - CompGS: Efficient 3D Scene Representation via Compressed Gaussian Splatting [68.94594215660473]
Compressed Gaussian Splatting (CompGS) という,効率的な3次元シーン表現を提案する。
我々は少数のアンカープリミティブを予測に利用し、プリミティブの大多数を非常にコンパクトな残留形にカプセル化することができる。
実験の結果,提案手法は既存の手法よりも優れており,モデル精度とレンダリング品質を損なうことなく,3次元シーン表現のコンパクト性に優れていた。
論文 参考訳(メタデータ) (2024-04-15T04:50:39Z) - Relaxing Accurate Initialization Constraint for 3D Gaussian Splatting [29.58220473268378]
我々は,3次元ガウス平滑化のための正確な初期化制約を導出する RAIN-GS という新しい最適化手法を提案する。
RAIN-GSは、準最適点雲(ランダム点雲など)から3Dガウスを訓練することに成功している。
ランダムポイントクラウドでトレーニングされたRAIN-GSは、正確なSfMポイントクラウドでトレーニングされた3DGSよりも高いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-03-14T14:04:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。