論文の概要: D$^2$GS: Depth-and-Density Guided Gaussian Splatting for Stable and Accurate Sparse-View Reconstruction
- arxiv url: http://arxiv.org/abs/2510.08566v1
- Date: Thu, 09 Oct 2025 17:59:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.309366
- Title: D$^2$GS: Depth-and-Density Guided Gaussian Splatting for Stable and Accurate Sparse-View Reconstruction
- Title(参考訳): D$2$GS:Depth-and-Density Guided Gaussian Splatting for Staable and Accurate Sparse-View Reconstruction (特集:日本歯科医科学会)
- Authors: Meixi Song, Xin Lin, Dizhe Zhang, Haodong Li, Xiangtai Li, Bo Du, Lu Qi,
- Abstract要約: 3D Gaussian Splatting (3DGS)は、3D表現を明示したリアルタイムかつ高忠実なノベルビュー合成(NVS)を可能にする。
疎視条件下では,カメラ近傍のガウス密度が過大な地域での過度適合と,ガウス範囲が不十分な遠隔地での過度適合の2つの重要な障害モードを同定する。
本稿では,奥行き案内型ドロップアウト戦略と距離認識型フィデリティ拡張モジュールという,2つの主要なコンポーネントからなる統合フレームワークD$2$GSを提案する。
- 参考スコア(独自算出の注目度): 73.61056394880733
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in 3D Gaussian Splatting (3DGS) enable real-time, high-fidelity novel view synthesis (NVS) with explicit 3D representations. However, performance degradation and instability remain significant under sparse-view conditions. In this work, we identify two key failure modes under sparse-view conditions: overfitting in regions with excessive Gaussian density near the camera, and underfitting in distant areas with insufficient Gaussian coverage. To address these challenges, we propose a unified framework D$^2$GS, comprising two key components: a Depth-and-Density Guided Dropout strategy that suppresses overfitting by adaptively masking redundant Gaussians based on density and depth, and a Distance-Aware Fidelity Enhancement module that improves reconstruction quality in under-fitted far-field areas through targeted supervision. Moreover, we introduce a new evaluation metric to quantify the stability of learned Gaussian distributions, providing insights into the robustness of the sparse-view 3DGS. Extensive experiments on multiple datasets demonstrate that our method significantly improves both visual quality and robustness under sparse view conditions. The project page can be found at: https://insta360-research-team.github.io/DDGS-website/.
- Abstract(参考訳): 近年の3Dガウススプラッティング(3DGS)は, 実時間, 高忠実な新規ビュー合成(NVS)を可能にしている。
しかし, スパースビュー条件下では, 性能劣化と不安定性は依然として顕著である。
本研究では,カメラ近傍のガウス密度が過大な地域での過度適合と,ガウス範囲が不十分な遠隔地での過度適合という,スパースビュー条件下での2つの重要な障害モードを同定する。
これらの課題に対処するために、密度と深さに基づいて冗長なガウスを適応的にマスキングすることでオーバーフィッティングを抑制するデプス・アンド・ディエンシティ・ガイドド・ドロップアウト戦略と、未適合の遠距離領域における再構成品質を改善するディスタンス・アウェア・フィデリティ・エンハンスメント・モジュールの2つの主要なコンポーネントからなる統合フレームワークD$2$GSを提案する。
さらに,学習したガウス分布の安定性を定量化するための新しい評価指標を導入し,スパースビュー3DGSの堅牢性について考察する。
複数のデータセットに対する大規模な実験により、スパースビュー条件下での視覚的品質とロバスト性の両方を著しく改善することが示された。
プロジェクトページは、https://insta360-research-team.github.io/DDGS-website/.com/で見ることができる。
関連論文リスト
- UGOD: Uncertainty-Guided Differentiable Opacity and Soft Dropout for Enhanced Sparse-View 3DGS [8.78995910690481]
3D Gaussian Splatting (3DGS) は新規ビュー合成(NVS)の競争的アプローチとなっている
本稿では,ガウスの適応重み付けがレンダリング品質に与える影響について検討する。
提案手法は,MipNeRF 360データセットにおいて3.27%のPSNR改善を実現する。
論文 参考訳(メタデータ) (2025-08-07T01:42:22Z) - S2Gaussian: Sparse-View Super-Resolution 3D Gaussian Splatting [47.75073170368562]
S2Gaussianと呼ばれる新しいスパースビュー超高解像度3Dガウス撮影フレームワークを提案する。
実験は優れた結果を示し、特により一貫した幾何と細かな詳細を持つ新しい最先端のパフォーマンスを確立する。
論文 参考訳(メタデータ) (2025-03-06T10:58:26Z) - TSGaussian: Semantic and Depth-Guided Target-Specific Gaussian Splatting from Sparse Views [18.050257821756148]
TSGaussianは、新しいビュー合成タスクにおける幾何学的劣化を避けるために、意味的制約と深さ事前の制約を組み合わせる新しいフレームワークである。
提案手法は,バックグラウンドアロケーションを最小化しながら,指定された目標に対する計算資源の優先順位付けを行う。
大規模な実験により、TSGaussianは3つの標準データセット上で最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-12-13T11:26:38Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [86.87464903285208]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - CityGaussianV2: Efficient and Geometrically Accurate Reconstruction for Large-Scale Scenes [53.107474952492396]
CityGaussianV2は大規模なシーン再構築のための新しいアプローチである。
分解段階の密度化・深さ回帰手法を実装し, ぼやけたアーチファクトを除去し, 収束を加速する。
本手法は, 視覚的品質, 幾何学的精度, ストレージ, トレーニングコストの両立を図っている。
論文 参考訳(メタデータ) (2024-11-01T17:59:31Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。