論文の概要: GeoSVR: Taming Sparse Voxels for Geometrically Accurate Surface Reconstruction
- arxiv url: http://arxiv.org/abs/2509.18090v2
- Date: Fri, 07 Nov 2025 09:13:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 14:53:49.47676
- Title: GeoSVR: Taming Sparse Voxels for Geometrically Accurate Surface Reconstruction
- Title(参考訳): GeoSVR:幾何学的に正確な表面再構成のためのスパースボクセルのモデリング
- Authors: Jiahe Li, Jiawei Zhang, Youmin Zhang, Xiao Bai, Jin Zheng, Xiaohan Yu, Lin Gu,
- Abstract要約: GeoSVRは透明なボクセルベースのフレームワークで、スパースボクセルの未解明の可能性を探求し、拡張し、精密で詳細かつ完全な表面再構成を実現する。
Sparse Voxel Surface Regularizationは、小さなボクセルの幾何学的整合性を高め、鋭く正確な表面のボクセルベースの形成を促進するように設計されている。
- 参考スコア(独自算出の注目度): 29.39368079247518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing accurate surfaces with radiance fields has achieved remarkable progress in recent years. However, prevailing approaches, primarily based on Gaussian Splatting, are increasingly constrained by representational bottlenecks. In this paper, we introduce GeoSVR, an explicit voxel-based framework that explores and extends the under-investigated potential of sparse voxels for achieving accurate, detailed, and complete surface reconstruction. As strengths, sparse voxels support preserving the coverage completeness and geometric clarity, while corresponding challenges also arise from absent scene constraints and locality in surface refinement. To ensure correct scene convergence, we first propose a Voxel-Uncertainty Depth Constraint that maximizes the effect of monocular depth cues while presenting a voxel-oriented uncertainty to avoid quality degradation, enabling effective and robust scene constraints yet preserving highly accurate geometries. Subsequently, Sparse Voxel Surface Regularization is designed to enhance geometric consistency for tiny voxels and facilitate the voxel-based formation of sharp and accurate surfaces. Extensive experiments demonstrate our superior performance compared to existing methods across diverse challenging scenarios, excelling in geometric accuracy, detail preservation, and reconstruction completeness while maintaining high efficiency. Code is available at https://github.com/Fictionarry/GeoSVR.
- Abstract(参考訳): 近年,放射場による正確な表面の再構成は顕著な進歩を遂げている。
しかし、主にガウススプラッティングに基づく一般的なアプローチは、表現的ボトルネックによってますます制約される。
本稿では, 精密かつ詳細かつ完全な表面再構成を実現するために, スパースボクセルの潜在能力を探索し, 拡張する, 明示的なボクセルベースフレームワークであるGeoSVRを紹介する。
強度として、スパースボクセルはカバー完全性と幾何学的明快性を維持するのをサポートするが、それに対応する課題は、シーンの制約や表面改質の局所性から生じる。
まず, ボクセルを指向した不確実性を示しながら, 品質劣化を回避し, 高精度なジオメトリーを保ちながら, 効果的で堅牢なシーン制約を実現することを目的として, 単眼深度キューの効果を最大化するボクセル不確実性深さ制約を提案する。
その後、スパースボクセル表面規則化は、小さなボクセルの幾何学的整合性を高め、鋭く正確な表面のボクセルベースの形成を促進するように設計されている。
高効率を維持しつつ, 幾何的精度, 詳細保存, 復元完全性に優れ, 様々な難解なシナリオにまたがる既存手法と比較して, 優れた性能を実証した。
コードはhttps://github.com/Fictionarry/GeoSVRで入手できる。
関連論文リスト
- GVGS: Gaussian Visibility-Aware Multi-View Geometry for Accurate Surface Reconstruction [15.170414649311441]
3D Gaussian Splattingは効率的な最適化と高品質なレンダリングを実現するが、正確な表面再構成は難しいままである。
ビュー間で共有されたガウス的プリミティブの可視性を集約する、可視性を考慮した多視点幾何的整合性制約を導入する。
また,粗い空間スケールから細かな空間スケールへのブロックワイドアフィンキャリブレーションを行う,プログレッシブクワッドツリー校正単分子深度制約を提案する。
論文 参考訳(メタデータ) (2026-01-28T07:48:51Z) - Advancing Structured Priors for Sparse-Voxel Surface Reconstruction [38.315369778574386]
有望な2つの明示的表現、すなわち3Dガウススプラッティングとスパースボクセル化は相補的な強みと弱みを示す。
ボクセルを可視な場所に配置するボクセル法と、適切な詳細レベルを組み合わせることにより、その利点を両立させる。
標準ベンチマークの実験では、従来の手法よりも精度が向上し、微細構造回復が向上し、より完全な表面が得られた。
論文 参考訳(メタデータ) (2026-01-25T06:49:22Z) - SVRecon: Sparse Voxel Rasterization for Surface Reconstruction [60.92372415355283]
我々は最近提案されたスパースボキセル化パラダイムをSVReconの統合により高忠実度表面再構成の課題に拡張する。
本手法は, 常に高速な収束を保ちながら, 強い復元精度を実現する。
論文 参考訳(メタデータ) (2025-11-21T16:32:01Z) - SparseSurf: Sparse-View 3D Gaussian Splatting for Surface Reconstruction [26.59203606048875]
高品質な新しいビューレンダリングを保ちながら、より正確で詳細な表面を再構築する手法であるnetを提案する。
我々の重要な洞察は、レンダリング品質と幾何推定を橋渡しするStereo Geometry-Texture Alignmentを導入することである。
さらに,多視点幾何整合性を実現するPseudo-Feature Enhanced Geometry Consistencyを提案する。
論文 参考訳(メタデータ) (2025-11-18T16:24:37Z) - AtlasGS: Atlanta-world Guided Surface Reconstruction with Implicit Structured Gaussians [57.95719610327081]
本研究では, アトランタ・ワールドガイド型暗黙構造型ガウシアン・スプレイティングを提案し, 屋内・都市景観のスムーズな再構築を実現する。
提案手法は,屋内・都市両場面における最先端の手法より優れ,表面の再現性に優れる。
論文 参考訳(メタデータ) (2025-10-29T03:17:58Z) - Surface-Centric Modeling for High-Fidelity Generalizable Neural Surface Reconstruction [29.26047429432185]
SuRFは、マッチングフィールドに基づいた新しいリージョンスペーシフィケーションを組み込んだ、新しいフレームワークである。
我々の知る限り、この手法はエンドツーエンドのスパーシフィケーションを実現する最初の教師なしの手法である。
実験により, 再現は高品質な細部を呈し, 新たな最先端性能を達成できることが確認された。
論文 参考訳(メタデータ) (2024-09-05T15:48:02Z) - GeoGaussian: Geometry-aware Gaussian Splatting for Scene Rendering [83.19049705653072]
ガウススプレイティング最適化の過程で、その構造が意図的に保存されていない場合、シーンの幾何学は徐々に悪化する。
我々はこの問題を緩和するためにGeoGaussianと呼ばれる新しいアプローチを提案する。
提案するパイプラインは、新しいビュー合成と幾何再構成において最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-03-17T20:06:41Z) - Arbitrary-Scale Point Cloud Upsampling by Voxel-Based Network with
Latent Geometric-Consistent Learning [52.825441454264585]
Voxel-based Network (textbfPU-VoxelNet) を用いた任意のスケールのクラウド・アップサンプリング・フレームワークを提案する。
ボクセル表現から継承された完全性と規則性により、ボクセルベースのネットワークは3次元表面を近似する事前定義されたグリッド空間を提供することができる。
密度誘導グリッド再サンプリング法を開発し、高忠実度点を生成するとともに、サンプリング出力を効果的に回避する。
論文 参考訳(メタデータ) (2024-03-08T07:31:14Z) - PSDF: Prior-Driven Neural Implicit Surface Learning for Multi-view
Reconstruction [31.768161784030923]
このフレームワークは、事前訓練されたMVSネットワークとNISRモデルに固有の内部幾何学的先駆体から外部幾何学的先駆体を利用する。
Tanks and Templesデータセットの実験は、PSDFが複雑な制御されていないシーンで最先端のパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2024-01-23T13:30:43Z) - VoxNeRF: Bridging Voxel Representation and Neural Radiance Fields for Enhanced Indoor View Synthesis [73.50359502037232]
VoxNeRFは、ニューラル室内再構成と新しいビュー合成の質と効率を高めるための新しいアプローチである。
本稿では,最も関連性の高い領域に計算資源を割り当てる効率的なボクセル誘導サンプリング手法を提案する。
私たちのアプローチは、ScanNetとScanNet++に関する広範な実験で検証されています。
論文 参考訳(メタデータ) (2023-11-09T11:32:49Z) - Indoor Scene Reconstruction with Fine-Grained Details Using Hybrid Representation and Normal Prior Enhancement [50.56517624931987]
多視点RGB画像からの室内シーンの再構成は、平坦領域とテクスチャレス領域の共存により困難である。
近年の手法では、予測された表面正規化によって支援されたニューラルラジアンス場を利用してシーン形状を復元している。
本研究は, 上記の制限に対処して, 高忠実度表面を細かな詳細で再構築することを目的とする。
論文 参考訳(メタデータ) (2023-09-14T12:05:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。