論文の概要: Accurate and Complete Surface Reconstruction from 3D Gaussians via Direct SDF Learning
- arxiv url: http://arxiv.org/abs/2509.07493v2
- Date: Sun, 21 Sep 2025 06:09:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.682843
- Title: Accurate and Complete Surface Reconstruction from 3D Gaussians via Direct SDF Learning
- Title(参考訳): 直接SDF学習による3次元ガウス面の高精度・完全再構成
- Authors: Wenzhi Guo, Bing Wang,
- Abstract要約: 3D Gaussian Splatting (3DGS) はフォトリアリスティック・ビュー・シンセサイザーの強力なパラダイムとして登場した。
3DGSパイプラインに直接サインドディスタンスフィールド(Signed Distance Field, SDF)学習を組み込む統合フレームワークであるDiGSを提案する。
DiGSは高い忠実度を維持しつつ,復元精度と完全性を常に向上することを示す。
- 参考スコア(独自算出の注目度): 5.604709769018076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian Splatting (3DGS) has recently emerged as a powerful paradigm for photorealistic view synthesis, representing scenes with spatially distributed Gaussian primitives. While highly effective for rendering, achieving accurate and complete surface reconstruction remains challenging due to the unstructured nature of the representation and the absence of explicit geometric supervision. In this work, we propose DiGS, a unified framework that embeds Signed Distance Field (SDF) learning directly into the 3DGS pipeline, thereby enforcing strong and interpretable surface priors. By associating each Gaussian with a learnable SDF value, DiGS explicitly aligns primitives with underlying geometry and improves cross-view consistency. To further ensure dense and coherent coverage, we design a geometry-guided grid growth strategy that adaptively distributes Gaussians along geometry-consistent regions under a multi-scale hierarchy. Extensive experiments on standard benchmarks, including DTU, Mip-NeRF 360, and Tanks& Temples, demonstrate that DiGS consistently improves reconstruction accuracy and completeness while retaining high rendering fidelity.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS) は、空間分布したガウス原始体を持つシーンを表現し、フォトリアリスティックな視点合成の強力なパラダイムとして最近登場した。
レンダリングには非常に効果的であるが、表現の非構造性や明示的な幾何学的監督の欠如により、正確で完全な表面再構成を達成することは依然として困難である。
本研究では,3DGSパイプラインに直接サイン付き距離場(Signed Distance Field, SDF)学習を組み込む統合フレームワークであるDiGSを提案する。
各ガウスを学習可能なSDF値に関連付けることで、DiGSはプリミティブを基礎となる幾何学と明確に整合させ、ビューの整合性を改善する。
さらに密度とコヒーレントなカバレッジを確保するため,マルチスケール階層の下でガウス分布を適応的に分配する幾何誘導格子成長戦略を設計する。
DTU, Mip-NeRF 360, Tanks& Templesなどの標準ベンチマークに関する大規模な実験は、DGSが高いレンダリング精度を維持しながら、再現精度と完全性を一貫して改善していることを示した。
関連論文リスト
- COREA: Coarse-to-Fine 3D Representation Alignment Between Relightable 3D Gaussians and SDF via Bidirectional 3D-to-3D Supervision [15.632917458525851]
我々は,3次元ガウシアンとSDF(Signed Distance Field)を共同で学習し,正確な幾何学的再構成と忠実なリライティングを行う最初の統一フレームワークであるCOREAを提案する。
標準ベンチマークの実験では、COREAは統一されたフレームワーク内での新規ビュー合成、メッシュ再構成、PBRにおいて優れた性能を達成している。
論文 参考訳(メタデータ) (2025-12-08T02:41:42Z) - PlanarGS: High-Fidelity Indoor 3D Gaussian Splatting Guided by Vision-Language Planar Priors [13.825701925456768]
PlanarGSは屋内シーンの再構築に適した3DGSベースのフレームワークである。
PlanarGSは正確で詳細な3D表面を再構築し、常に最先端の手法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2025-10-27T23:32:19Z) - Visibility-Aware Densification for 3D Gaussian Splatting in Dynamic Urban Scenes [7.253732091582086]
VAD-GSは3DGSフレームワークで、挑戦的な都市景観の幾何学的復元に適したものだ。
本手法は, ボクセルに基づく可視性推論により, 信頼性の低い幾何学構造を同定する。
多様性を意識したビュー選択を通じて情報的支援ビューを選択し、パッチマッチングベースのステレオ再構築によって行方不明構造を復元する。
論文 参考訳(メタデータ) (2025-10-10T13:22:12Z) - SurfaceSplat: Connecting Surface Reconstruction and Gaussian Splatting [92.13737830605902]
スパースビュー画像による表面再構成と新しいビューレンダリングは困難である。
両手法の強みを組み合わせた新しいハイブリッド手法を提案する。
提案手法はDTUおよびMobileBrickデータセット上でのサーフェス再構成と新しいビュー合成における最先端のアプローチを超越した手法である。
論文 参考訳(メタデータ) (2025-07-21T13:25:03Z) - GS-2DGS: Geometrically Supervised 2DGS for Reflective Object Reconstruction [51.99776072246151]
2次元ガウス散乱(2DGS)に基づく反射物体に対するGS-2DGSと呼ばれる新しい再構成法を提案する。
合成および実データを用いた実験結果から,本手法はガウスの手法を再現・啓蒙の面で著しく上回っていることが示された。
論文 参考訳(メタデータ) (2025-06-16T05:40:16Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [84.07233691641193]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - Quadratic Gaussian Splatting: High Quality Surface Reconstruction with Second-order Geometric Primitives [7.500927135156425]
Quadratic Gaussian Splatting (QGS) は、静的プリミティブを変形可能な二次曲面に置き換える新しい表現である。
QGSは2DGSで33%、DTUデータセットでGOFで27%の幾何学的誤差(チャンファー距離)を減少させる。
論文 参考訳(メタデータ) (2024-11-25T13:55:00Z) - GeoSplatting: Towards Geometry Guided Gaussian Splatting for Physically-based Inverse Rendering [69.67264955234494]
GeoSplattingは、3DGSを精密な光輸送モデリングのための明確な幾何学的ガイダンスで拡張する新しいアプローチである。
最適化可能なメッシュから表面積の3DGSを微分的に構築することにより、明確に定義されたメッシュ正規と不透明なメッシュ表面を利用する。
この強化により、3DGSの効率性と高品質なレンダリング能力を保ちながら、正確な材料分解が保証される。
論文 参考訳(メタデータ) (2024-10-31T17:57:07Z) - 3D Gaussian Splatting for Large-scale Surface Reconstruction from Aerial Images [6.076999957937232]
AGS(Aerial Gaussian Splatting)という,空中多視点ステレオ(MVS)画像を用いた3DGSによる大規模表面再構成手法を提案する。
まず,大規模空中画像に適したデータチャンキング手法を提案する。
次に,レイ・ガウス断面積法を3DGSに統合し,深度情報と正規情報を得る。
論文 参考訳(メタデータ) (2024-08-31T08:17:24Z) - GaussianRoom: Improving 3D Gaussian Splatting with SDF Guidance and Monocular Cues for Indoor Scene Reconstruction [5.112375652774415]
本稿では,SDFと3DGSを統合し,正確な幾何再構成とリアルタイムレンダリングを行う統合最適化フレームワークを提案する。
本手法は, 表面再構成と新しいビュー合成の両面において, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-05-30T03:46:59Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - Gaussian Opacity Fields: Efficient Adaptive Surface Reconstruction in Unbounded Scenes [50.92217884840301]
Gaussian Opacity Fields (GOF)は、シーンにおける効率的で高品質で適応的な表面再構成のための新しいアプローチである。
GOFは3Dガウスのレイトレーシングに基づくボリュームレンダリングに由来する。
GOFは、表面再構成と新しいビュー合成において、既存の3DGSベースの手法を超越している。
論文 参考訳(メタデータ) (2024-04-16T17:57:19Z) - 3DGSR: Implicit Surface Reconstruction with 3D Gaussian Splatting [58.95801720309658]
本稿では,3次元ガウス散乱(3DGS),すなわち3DGSRを用いた暗黙的表面再構成法を提案する。
重要な洞察は、暗黙の符号付き距離場(SDF)を3Dガウスに組み込んで、それらが整列され、共同最適化されるようにすることである。
実験により, 3DGSの効率とレンダリング品質を保ちながら, 高品質な3D表面再構成が可能な3DGSR法が実証された。
論文 参考訳(メタデータ) (2024-03-30T16:35:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。