論文の概要: GVGS: Gaussian Visibility-Aware Multi-View Geometry for Accurate Surface Reconstruction
- arxiv url: http://arxiv.org/abs/2601.20331v1
- Date: Wed, 28 Jan 2026 07:48:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.822466
- Title: GVGS: Gaussian Visibility-Aware Multi-View Geometry for Accurate Surface Reconstruction
- Title(参考訳): GVGS: 正確な表面再構成のためのガウス視認性を考慮した多視点幾何
- Authors: Mai Su, Qihan Yu, Zhongtao Wang, Yilong Li, Chengwei Pan, Yisong Chen, Guoping Wang,
- Abstract要約: 3D Gaussian Splattingは効率的な最適化と高品質なレンダリングを実現するが、正確な表面再構成は難しいままである。
ビュー間で共有されたガウス的プリミティブの可視性を集約する、可視性を考慮した多視点幾何的整合性制約を導入する。
また,粗い空間スケールから細かな空間スケールへのブロックワイドアフィンキャリブレーションを行う,プログレッシブクワッドツリー校正単分子深度制約を提案する。
- 参考スコア(独自算出の注目度): 15.170414649311441
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian Splatting enables efficient optimization and high-quality rendering, yet accurate surface reconstruction remains challenging. Prior methods improve surface reconstruction by refining Gaussian depth estimates, either via multi-view geometric consistency or through monocular depth priors. However, multi-view constraints become unreliable under large geometric discrepancies, while monocular priors suffer from scale ambiguity and local inconsistency, ultimately leading to inaccurate Gaussian depth supervision. To address these limitations, we introduce a Gaussian visibility-aware multi-view geometric consistency constraint that aggregates the visibility of shared Gaussian primitives across views, enabling more accurate and stable geometric supervision. In addition, we propose a progressive quadtree-calibrated Monocular depth constraint that performs block-wise affine calibration from coarse to fine spatial scales, mitigating the scale ambiguity of depth priors while preserving fine-grained surface details. Extensive experiments on DTU and TNT datasets demonstrate consistent improvements in geometric accuracy over prior Gaussian-based and implicit surface reconstruction methods. Codes are available at an anonymous repository: https://github.com/GVGScode/GVGS.
- Abstract(参考訳): 3D Gaussian Splattingは効率的な最適化と高品質なレンダリングを実現するが、正確な表面再構成は難しいままである。
先行手法は、多視点幾何学的整合性や単分子深度先行によるガウス深度推定を精製することにより表面再構成を改善する。
しかし、多視点の制約は大きな幾何学的不一致の下では信頼できないものとなり、一方単眼の先行はスケールの曖昧さと局所的な不整合に悩まされ、最終的にガウスの深度を不正確なものにする。
これらの制約に対処するために、ビュー間で共有されたガウス原始体の可視性を集約し、より正確で安定した幾何的監督を可能にするガウス可視性を考慮した多視点幾何的整合性制約を導入する。
さらに、粗い空間スケールから細かな空間スケールへのブロックワイドアフィンキャリブレーションを行い、きめ細かい表面の詳細を保存しながら、奥行きのスケールのあいまいさを緩和するプログレッシブクワッドツリーキャリブレーションモノクルディフの制約を提案する。
DTUおよびTNTデータセットの大規模な実験は、ガウス的および暗黙的表面再構成法よりも幾何精度が一貫した改善を示した。
コードは匿名リポジトリで入手できる。 https://github.com/GVGScode/GVGS。
関連論文リスト
- SparseSurf: Sparse-View 3D Gaussian Splatting for Surface Reconstruction [26.59203606048875]
高品質な新しいビューレンダリングを保ちながら、より正確で詳細な表面を再構築する手法であるnetを提案する。
我々の重要な洞察は、レンダリング品質と幾何推定を橋渡しするStereo Geometry-Texture Alignmentを導入することである。
さらに,多視点幾何整合性を実現するPseudo-Feature Enhanced Geometry Consistencyを提案する。
論文 参考訳(メタデータ) (2025-11-18T16:24:37Z) - VA-GS: Enhancing the Geometric Representation of Gaussian Splatting via View Alignment [48.147381011235446]
3D Gaussian Splattingは、リアルタイムな新規ビュー合成のための効率的なソリューションとして最近登場した。
ビューアライメントによる3次元ガウス多様体の幾何学的表現を強化する新しい手法を提案する。
本手法は, 表面再構成と新しいビュー合成の両面において, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-10-13T14:44:50Z) - DET-GS: Depth- and Edge-Aware Regularization for High-Fidelity 3D Gaussian Splatting [5.759434800012218]
3D Gaussian Splatting (3DGS) は、効率的かつ高忠実な新規なビュー合成の分野において重要な進歩を示している。
既存の手法はしばしば非局所的な深さ正規化に依存しており、微細な構造を捉えることができない。
本稿では,3次元ガウス平滑化のための深度とエッジ認識の統一正規化フレームワークであるDET-GSを提案する。
論文 参考訳(メタデータ) (2025-08-06T05:37:26Z) - Multiview Geometric Regularization of Gaussian Splatting for Accurate Radiance Fields [8.41704235466682]
本稿では,多視点ステレオ(MVS)深度,RGB,および正規制約をガウススプラッティングに統合する効果的な多視点幾何正規化戦略を提案する。
我々の重要な洞察は、MVS由来の深度点とガウススプラッティング最適化位置の相補的関係である。
この知見を活用するために、不確実性推定を伴う中央値の深度に基づく相対的な深度損失を導入する。
論文 参考訳(メタデータ) (2025-06-16T14:02:46Z) - RDG-GS: Relative Depth Guidance with Gaussian Splatting for Real-time Sparse-View 3D Rendering [13.684624443214599]
本稿では,3次元ガウススプラッティングに基づく相対深度誘導を用いた新しいスパースビュー3DレンダリングフレームワークRDG-GSを提案する。
中心となる革新は、相対的な深度誘導を利用してガウス場を洗練させ、ビュー一貫性のある空間幾何学的表現に向けてそれを操ることである。
Mip-NeRF360, LLFF, DTU, Blenderに関する広範な実験を通じて、RDG-GSは最先端のレンダリング品質と効率を実証している。
論文 参考訳(メタデータ) (2025-01-19T16:22:28Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [86.87464903285208]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - VCR-GauS: View Consistent Depth-Normal Regularizer for Gaussian Surface Reconstruction [47.603017811399624]
そこで本研究では,通常のパラメータと他のパラメータを直接結合するDepth-Normal正規化器を提案する。
また,より正確な表面モデリングのために,3次元ガウス多様体のサイズと分布を規則化するための密度化と分割戦略を導入する。
論文 参考訳(メタデータ) (2024-06-09T13:15:43Z) - Gaussian Opacity Fields: Efficient Adaptive Surface Reconstruction in Unbounded Scenes [50.92217884840301]
Gaussian Opacity Fields (GOF)は、シーンにおける効率的で高品質で適応的な表面再構成のための新しいアプローチである。
GOFは3Dガウスのレイトレーシングに基づくボリュームレンダリングに由来する。
GOFは、表面再構成と新しいビュー合成において、既存の3DGSベースの手法を超越している。
論文 参考訳(メタデータ) (2024-04-16T17:57:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。