論文の概要: GeoSVR: Taming Sparse Voxels for Geometrically Accurate Surface Reconstruction
- arxiv url: http://arxiv.org/abs/2509.18090v1
- Date: Mon, 22 Sep 2025 17:58:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.557632
- Title: GeoSVR: Taming Sparse Voxels for Geometrically Accurate Surface Reconstruction
- Title(参考訳): GeoSVR:幾何学的に正確な表面再構成のためのスパースボクセルのモデリング
- Authors: Jiahe Li, Jiawei Zhang, Youmin Zhang, Xiao Bai, Jin Zheng, Xiaohan Yu, Lin Gu,
- Abstract要約: GeoSVRは透明なボクセルベースのフレームワークで、スパースボクセルの未解明の可能性を探求し、拡張し、精密で詳細かつ完全な表面再構成を実現する。
Sparse Voxel Surface Regularizationは、小さなボクセルの幾何学的整合性を高め、鋭く正確な表面のボクセルベースの形成を促進するように設計されている。
- 参考スコア(独自算出の注目度): 29.39368079247518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing accurate surfaces with radiance fields has achieved remarkable progress in recent years. However, prevailing approaches, primarily based on Gaussian Splatting, are increasingly constrained by representational bottlenecks. In this paper, we introduce GeoSVR, an explicit voxel-based framework that explores and extends the under-investigated potential of sparse voxels for achieving accurate, detailed, and complete surface reconstruction. As strengths, sparse voxels support preserving the coverage completeness and geometric clarity, while corresponding challenges also arise from absent scene constraints and locality in surface refinement. To ensure correct scene convergence, we first propose a Voxel-Uncertainty Depth Constraint that maximizes the effect of monocular depth cues while presenting a voxel-oriented uncertainty to avoid quality degradation, enabling effective and robust scene constraints yet preserving highly accurate geometries. Subsequently, Sparse Voxel Surface Regularization is designed to enhance geometric consistency for tiny voxels and facilitate the voxel-based formation of sharp and accurate surfaces. Extensive experiments demonstrate our superior performance compared to existing methods across diverse challenging scenarios, excelling in geometric accuracy, detail preservation, and reconstruction completeness while maintaining high efficiency. Code is available at https://github.com/Fictionarry/GeoSVR.
- Abstract(参考訳): 近年,放射場による正確な表面の再構成は顕著な進歩を遂げている。
しかし、主にガウススプラッティングに基づく一般的なアプローチは、表現的ボトルネックによってますます制約される。
本稿では, 精密かつ詳細かつ完全な表面再構成を実現するために, スパースボクセルの潜在能力を探索し, 拡張する, 明示的なボクセルベースフレームワークであるGeoSVRを紹介する。
強度として、スパースボクセルはカバー完全性と幾何学的明快性を維持するのをサポートするが、それに対応する課題は、シーンの制約や表面改質の局所性から生じる。
まず, ボクセルを指向した不確実性を示しながら, 品質劣化を回避し, 高精度なジオメトリーを保ちながら, 効果的で堅牢なシーン制約を実現することを目的として, 単眼深度キューの効果を最大化するボクセル不確実性深さ制約を提案する。
その後、スパースボクセル表面規則化は、小さなボクセルの幾何学的整合性を高め、鋭く正確な表面のボクセルベースの形成を促進するように設計されている。
高効率を維持しつつ, 幾何的精度, 詳細保存, 復元完全性に優れ, 様々な難解なシナリオにまたがる既存手法と比較して, 優れた性能を実証した。
コードはhttps://github.com/Fictionarry/GeoSVRで入手できる。
関連論文リスト
- Surface-Centric Modeling for High-Fidelity Generalizable Neural Surface Reconstruction [29.26047429432185]
SuRFは、マッチングフィールドに基づいた新しいリージョンスペーシフィケーションを組み込んだ、新しいフレームワークである。
我々の知る限り、この手法はエンドツーエンドのスパーシフィケーションを実現する最初の教師なしの手法である。
実験により, 再現は高品質な細部を呈し, 新たな最先端性能を達成できることが確認された。
論文 参考訳(メタデータ) (2024-09-05T15:48:02Z) - GeoGaussian: Geometry-aware Gaussian Splatting for Scene Rendering [83.19049705653072]
ガウススプレイティング最適化の過程で、その構造が意図的に保存されていない場合、シーンの幾何学は徐々に悪化する。
我々はこの問題を緩和するためにGeoGaussianと呼ばれる新しいアプローチを提案する。
提案するパイプラインは、新しいビュー合成と幾何再構成において最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-03-17T20:06:41Z) - Arbitrary-Scale Point Cloud Upsampling by Voxel-Based Network with
Latent Geometric-Consistent Learning [52.825441454264585]
Voxel-based Network (textbfPU-VoxelNet) を用いた任意のスケールのクラウド・アップサンプリング・フレームワークを提案する。
ボクセル表現から継承された完全性と規則性により、ボクセルベースのネットワークは3次元表面を近似する事前定義されたグリッド空間を提供することができる。
密度誘導グリッド再サンプリング法を開発し、高忠実度点を生成するとともに、サンプリング出力を効果的に回避する。
論文 参考訳(メタデータ) (2024-03-08T07:31:14Z) - PSDF: Prior-Driven Neural Implicit Surface Learning for Multi-view
Reconstruction [31.768161784030923]
このフレームワークは、事前訓練されたMVSネットワークとNISRモデルに固有の内部幾何学的先駆体から外部幾何学的先駆体を利用する。
Tanks and Templesデータセットの実験は、PSDFが複雑な制御されていないシーンで最先端のパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2024-01-23T13:30:43Z) - Indoor Scene Reconstruction with Fine-Grained Details Using Hybrid Representation and Normal Prior Enhancement [50.56517624931987]
多視点RGB画像からの室内シーンの再構成は、平坦領域とテクスチャレス領域の共存により困難である。
近年の手法では、予測された表面正規化によって支援されたニューラルラジアンス場を利用してシーン形状を復元している。
本研究は, 上記の制限に対処して, 高忠実度表面を細かな詳細で再構築することを目的とする。
論文 参考訳(メタデータ) (2023-09-14T12:05:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。