論文の概要: SOF: Sorted Opacity Fields for Fast Unbounded Surface Reconstruction
- arxiv url: http://arxiv.org/abs/2506.19139v1
- Date: Mon, 23 Jun 2025 21:20:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.395156
- Title: SOF: Sorted Opacity Fields for Fast Unbounded Surface Reconstruction
- Title(参考訳): SOF:高速非有界表面再構成のためのSorted Opacity Fields
- Authors: Lukas Radl, Felix Windisch, Thomas Deixelberger, Jozef Hladky, Michael Steiner, Dieter Schmalstieg, Markus Steinberger,
- Abstract要約: 3次元ガウス表現は、画像に基づくシーン再構成の品質と効率を大幅に改善した。
多くの既存手法は近似深度推定と大域的ソートに依存しており、アーティファクトを導入し、再構成メッシュの忠実さを制限することができる。
本稿では,3次元ガウスから詳細な表面を高速かつ高精度に復元する手法であるSorted Opacity Fields (SOF)を提案する。
- 参考スコア(独自算出の注目度): 8.905668938519279
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advances in 3D Gaussian representations have significantly improved the quality and efficiency of image-based scene reconstruction. Their explicit nature facilitates real-time rendering and fast optimization, yet extracting accurate surfaces - particularly in large-scale, unbounded environments - remains a difficult task. Many existing methods rely on approximate depth estimates and global sorting heuristics, which can introduce artifacts and limit the fidelity of the reconstructed mesh. In this paper, we present Sorted Opacity Fields (SOF), a method designed to recover detailed surfaces from 3D Gaussians with both speed and precision. Our approach improves upon prior work by introducing hierarchical resorting and a robust formulation of Gaussian depth, which better aligns with the level-set. To enhance mesh quality, we incorporate a level-set regularizer operating on the opacity field and introduce losses that encourage geometrically-consistent primitive shapes. In addition, we develop a parallelized Marching Tetrahedra algorithm tailored to our opacity formulation, reducing meshing time by up to an order of magnitude. As demonstrated by our quantitative evaluation, SOF achieves higher reconstruction accuracy while cutting total processing time by more than a factor of three. These results mark a step forward in turning efficient Gaussian-based rendering into equally efficient geometry extraction.
- Abstract(参考訳): 3次元ガウス表現の最近の進歩は、画像に基づくシーン再構成の品質と効率を大幅に改善した。
その明示的な性質は、リアルタイムレンダリングと高速な最適化を促進するが、特に大規模で非有界な環境では、正確な曲面を抽出することは難しい課題である。
多くの既存手法は近似深度推定と大域的ソートヒューリスティックスに依存しており、人工物を導入し、再建されたメッシュの忠実さを制限することができる。
本稿では,3次元ガウスから細かな表面を高速かつ高精度に復元する手法であるSorted Opacity Fields (SOF)を提案する。
提案手法は,階層型リゾートの導入とガウス深さの堅牢な定式化により,事前の作業を改善する。
メッシュ品質を向上させるため,不透明領域で動作するレベルセット正規化器を導入し,幾何学的に一貫性のある原始形状を奨励する損失を導入する。
さらに,不透明度定式化に適した並列化マーチング・テトラヘドラアルゴリズムを開発し,メッシュ処理時間を最大1桁削減した。
定量的評価の結果,SOFは全処理時間を3倍以上削減しながら高い復元精度を達成できた。
これらの結果は、効率的なガウスベースのレンダリングを等しく効率的な幾何学的抽出に変換するための一歩である。
関連論文リスト
- QuickSplat: Fast 3D Surface Reconstruction via Learned Gaussian Initialization [69.50126552763157]
表面再構成はコンピュータビジョンとグラフィックスの基本であり、3Dモデリング、混合現実、ロボット工学などの応用を可能にする。
レンダリングに基づく既存のアプローチは有望な結果を得るが、シーンごとに最適化されるため、テクスチャレスな領域をモデル化するのに苦労する可能性がある。
大規模屋内シーンの2次元ガウススプラッティング最適化のための高密度初期化を生成するために,データ駆動の先行処理を学習するQuickSplatを紹介する。
論文 参考訳(メタデータ) (2025-05-08T18:43:26Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - GausSurf: Geometry-Guided 3D Gaussian Splatting for Surface Reconstruction [79.42244344704154]
GausSurfは、テクスチャリッチな領域におけるマルチビュー一貫性と、シーンのテクスチャレスな領域における通常の事前の幾何学的ガイダンスを採用している。
本手法は,再現性や計算時間の観点から,最先端の手法を超越した手法である。
論文 参考訳(メタデータ) (2024-11-29T03:54:54Z) - GaussianRoom: Improving 3D Gaussian Splatting with SDF Guidance and Monocular Cues for Indoor Scene Reconstruction [5.112375652774415]
本稿では,SDFと3DGSを統合し,正確な幾何再構成とリアルタイムレンダリングを行う統合最適化フレームワークを提案する。
本手法は, 表面再構成と新しいビュー合成の両面において, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-05-30T03:46:59Z) - Gaussian Opacity Fields: Efficient Adaptive Surface Reconstruction in Unbounded Scenes [50.92217884840301]
Gaussian Opacity Fields (GOF)は、シーンにおける効率的で高品質で適応的な表面再構成のための新しいアプローチである。
GOFは3Dガウスのレイトレーシングに基づくボリュームレンダリングに由来する。
GOFは、表面再構成と新しいビュー合成において、既存の3DGSベースの手法を超越している。
論文 参考訳(メタデータ) (2024-04-16T17:57:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。