論文の概要: DET-GS: Depth- and Edge-Aware Regularization for High-Fidelity 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2508.04099v1
- Date: Wed, 06 Aug 2025 05:37:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.559273
- Title: DET-GS: Depth- and Edge-Aware Regularization for High-Fidelity 3D Gaussian Splatting
- Title(参考訳): DET-GS:高忠実度3Dガウス平滑化のための深さ・エッジ認識正規化
- Authors: Zexu Huang, Min Xu, Stuart Perry,
- Abstract要約: 3D Gaussian Splatting (3DGS) は、効率的かつ高忠実な新規なビュー合成の分野において重要な進歩を示している。
既存の手法はしばしば非局所的な深さ正規化に依存しており、微細な構造を捉えることができない。
本稿では,3次元ガウス平滑化のための深度とエッジ認識の統一正規化フレームワークであるDET-GSを提案する。
- 参考スコア(独自算出の注目度): 5.759434800012218
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian Splatting (3DGS) represents a significant advancement in the field of efficient and high-fidelity novel view synthesis. Despite recent progress, achieving accurate geometric reconstruction under sparse-view conditions remains a fundamental challenge. Existing methods often rely on non-local depth regularization, which fails to capture fine-grained structures and is highly sensitive to depth estimation noise. Furthermore, traditional smoothing methods neglect semantic boundaries and indiscriminately degrade essential edges and textures, consequently limiting the overall quality of reconstruction. In this work, we propose DET-GS, a unified depth and edge-aware regularization framework for 3D Gaussian Splatting. DET-GS introduces a hierarchical geometric depth supervision framework that adaptively enforces multi-level geometric consistency, significantly enhancing structural fidelity and robustness against depth estimation noise. To preserve scene boundaries, we design an edge-aware depth regularization guided by semantic masks derived from Canny edge detection. Furthermore, we introduce an RGB-guided edge-preserving Total Variation loss that selectively smooths homogeneous regions while rigorously retaining high-frequency details and textures. Extensive experiments demonstrate that DET-GS achieves substantial improvements in both geometric accuracy and visual fidelity, outperforming state-of-the-art (SOTA) methods on sparse-view novel view synthesis benchmarks.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS) は、効率的かつ高忠実な新規なビュー合成の分野において重要な進歩を示している。
近年の進歩にもかかわらず、スパースビュー条件下で正確な幾何学的再構成を実現することは、依然として根本的な課題である。
既存の手法はしばしば非局所的な深さ正規化に依存しており、微細な構造を捉えることができず、深さ推定ノイズに非常に敏感である。
さらに、従来の平滑化手法は意味的境界を無視し、重要なエッジやテクスチャを無差別に分解し、結果として全体の品質を制限している。
本研究では,3次元ガウス平滑化のための深度とエッジ対応の統一正規化フレームワークであるDET-GSを提案する。
DET-GSは階層的な幾何学的深度監視フレームワークを導入し、多段階の幾何一貫性を適応的に強化し、深さ推定ノイズに対する構造的忠実性と頑健性を大幅に向上させた。
シーン境界を保存するために,Cannyエッジ検出から導出されるセマンティックマスクによって誘導されるエッジ認識深度正規化を設計する。
さらに,高頻度の詳細やテクスチャを厳格に保持しつつ,均質な領域を選択的に平滑化するRGB誘導エッジ保存トータル変分損失を導入する。
広汎な実験により、DET-GSは幾何学的精度と視覚的忠実度の両方において大幅に向上し、スパースビューの新規ビュー合成ベンチマークにおいて、最先端(SOTA)法よりも優れていることが示された。
関連論文リスト
- Learning Fine-Grained Geometry for Sparse-View Splatting via Cascade Depth Loss [15.425094458647933]
粗い部分から細かい部分まで幾何を段階的に洗練する深度監視フレームワークである階層深度誘導平滑化(HDGS)を導入する。
マルチスケールの奥行き整合性を実現することにより,スパースビューのシナリオにおける構造的忠実度を大幅に改善する。
論文 参考訳(メタデータ) (2025-05-28T12:16:42Z) - Intern-GS: Vision Model Guided Sparse-View 3D Gaussian Splatting [95.61137026932062]
Intern-GSはスパースビューガウススプラッティングのプロセスを強化する新しいアプローチである。
Intern-GSは多様なデータセットにまたがって最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-05-27T05:17:49Z) - Steepest Descent Density Control for Compact 3D Gaussian Splatting [72.54055499344052]
3D Gaussian Splatting (3DGS)は、強力なリアルタイム高解像度ノベルビューとして登場した。
本稿では,3DGSの密度制御をデミストし,改良する理論的枠組みを提案する。
我々はSteepGSを導入し、コンパクトな点雲を維持しながら損失を最小限に抑える原則的戦略である、最も急な密度制御を取り入れた。
論文 参考訳(メタデータ) (2025-05-08T18:41:38Z) - Diffusion-Guided Gaussian Splatting for Large-Scale Unconstrained 3D Reconstruction and Novel View Synthesis [22.767866875051013]
本稿では,現行手法の限界に対処する多視点拡散モデルを用いて,新しい3DGSフレームワークであるGS-Diffを提案する。
マルチビュー入力に条件付き擬似観測を生成することにより、制約の少ない3次元再構成問題をよく表されたものに変換する。
4つのベンチマークの実験では、GS-Diffは最先端のベースラインをかなりのマージンで一貫して上回っている。
論文 参考訳(メタデータ) (2025-04-02T17:59:46Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - Uncertainty-Aware Normal-Guided Gaussian Splatting for Surface Reconstruction from Sparse Image Sequences [21.120659841877508]
3D Gaussian Splatting (3DGS)は、新規なビュー合成において印象的なレンダリング性能を達成した。
3DGSパイプライン内の幾何的不確かさを定量化するために,不確かさを意識した正規誘導型ガウス格子(UNG-GS)を提案する。
UNG-GSはスパース配列と高密度シーケンスの両方で最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2025-03-14T08:18:12Z) - RDG-GS: Relative Depth Guidance with Gaussian Splatting for Real-time Sparse-View 3D Rendering [13.684624443214599]
本稿では,3次元ガウススプラッティングに基づく相対深度誘導を用いた新しいスパースビュー3DレンダリングフレームワークRDG-GSを提案する。
中心となる革新は、相対的な深度誘導を利用してガウス場を洗練させ、ビュー一貫性のある空間幾何学的表現に向けてそれを操ることである。
Mip-NeRF360, LLFF, DTU, Blenderに関する広範な実験を通じて、RDG-GSは最先端のレンダリング品質と効率を実証している。
論文 参考訳(メタデータ) (2025-01-19T16:22:28Z) - AGS-Mesh: Adaptive Gaussian Splatting and Meshing with Geometric Priors for Indoor Room Reconstruction Using Smartphones [19.429461194706786]
室内シーンの正確な3次元再構成のためのガウススメッティング法における接合面深度と正規化のアプローチを提案する。
我々のフィルタリング戦略と最適化設計は、メッシュ推定と新規ビュー合成の両方において大きな改善を示す。
論文 参考訳(メタデータ) (2024-11-28T17:04:32Z) - Beyond Gaussians: Fast and High-Fidelity 3D Splatting with Linear Kernels [51.08794269211701]
本稿では,ガウスカーネルを線形カーネルに置き換えて,よりシャープで高精度な結果を得る3Dリニアスティング(DLS)を提案する。
3DLSは、最先端の忠実さと正確さを示し、ベースライン3DGSよりも30%のFPS改善を実現している。
論文 参考訳(メタデータ) (2024-11-19T11:59:54Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。