論文の概要: GCRayDiffusion: Pose-Free Surface Reconstruction via Geometric Consistent Ray Diffusion
- arxiv url: http://arxiv.org/abs/2503.22349v1
- Date: Fri, 28 Mar 2025 11:45:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 15:29:27.382946
- Title: GCRayDiffusion: Pose-Free Surface Reconstruction via Geometric Consistent Ray Diffusion
- Title(参考訳): GCRay拡散:幾何学的一貫した光拡散による無孔表面の再構成
- Authors: Li-Heng Chen, Zi-Xin Zou, Chang Liu, Tianjiao Jing, Yan-Pei Cao, Shi-Sheng Huang, Hongbo Fu, Hua Huang,
- Abstract要約: 従来のアプローチでは、高密度ビュー設定において、ポーズのない表面再構成結果が顕著に達成されている。
カメラポーズ推定の線量拡散から抽出した明示的な点による学習を規則化する,ポーズレス表面再構成のための新しい手法を提案する。
我々のGCRayDiffusionは、幾何的に一貫した表面再構成結果により、従来のアプローチよりも正確なカメラポーズ推定を実現している。
- 参考スコア(独自算出の注目度): 30.773599974914415
- License:
- Abstract: Accurate surface reconstruction from unposed images is crucial for efficient 3D object or scene creation. However, it remains challenging, particularly for the joint camera pose estimation. Previous approaches have achieved impressive pose-free surface reconstruction results in dense-view settings, but could easily fail for sparse-view scenarios without sufficient visual overlap. In this paper, we propose a new technique for pose-free surface reconstruction, which follows triplane-based signed distance field (SDF) learning but regularizes the learning by explicit points sampled from ray-based diffusion of camera pose estimation. Our key contribution is a novel Geometric Consistent Ray Diffusion model (GCRayDiffusion), where we represent camera poses as neural bundle rays and regress the distribution of noisy rays via a diffusion model. More importantly, we further condition the denoising process of RGRayDiffusion using the triplane-based SDF of the entire scene, which provides effective 3D consistent regularization to achieve multi-view consistent camera pose estimation. Finally, we incorporate RGRayDiffusion into the triplane-based SDF learning by introducing on-surface geometric regularization from the sampling points of the neural bundle rays, which leads to highly accurate pose-free surface reconstruction results even for sparse-view inputs. Extensive evaluations on public datasets show that our GCRayDiffusion achieves more accurate camera pose estimation than previous approaches, with geometrically more consistent surface reconstruction results, especially given sparse-view inputs.
- Abstract(参考訳): 非ポーズ画像からの正確な表面再構成は、効率的な3Dオブジェクトやシーン作成に不可欠である。
しかし、特にジョイントカメラのポーズ推定では、依然として困難である。
従来のアプローチでは、濃密なビュー設定でポーズレス表面再構成の結果は目覚ましいが、十分な視覚的オーバーラップを伴わずに、スパースビューのシナリオでは容易に失敗する可能性がある。
本稿では,3次元平面を用いた符号付き距離場(SDF)学習に続くポーズレス表面再構成手法を提案するが,カメラポーズ推定の線量拡散から抽出した明示的な点による学習を規則化する。
我々の重要な貢献は、新しいGeometric Consistent Ray Diffusion Model (GCRayDiffusion) である。
さらに重要なことは、RGRayDiffusionのデノイング過程を、シーン全体のトリプレーンベース SDF を用いて、より効果的に3次元一貫した正規化を行い、マルチビュー一貫したカメラポーズ推定を実現することである。
最後に、RGRayDiffusionを三面体に基づくSDF学習に組み込むことにより、ニューラルネットワークのサンプリング点から地上の幾何学的正則化を導入し、スパースビュー入力においても高精度なポーズレス表面再構成結果を得る。
公開データセットの広範な評価により,GCRayDiffusionは従来手法よりも高精度なカメラポーズ推定を実現しており,特にスパースビュー入力の場合,幾何的に一貫した表面再構成結果が得られることがわかった。
関連論文リスト
- SiLVR: Scalable Lidar-Visual Radiance Field Reconstruction with Uncertainty Quantification [0.0]
本稿では,ライダーと視覚データを融合したNeRFを用いた大規模再構成システムを提案する。
我々のシステムは、ライダーを付加的に組み込むために最先端のNeRF表現を採用する。
ロボット搭載型とハンドヘルド型の両方のスキャニング実験において,マルチカメラ・ライダーセンサ・スイートを用いた再構築システムを実証した。
論文 参考訳(メタデータ) (2025-02-04T19:00:49Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - LM-Gaussian: Boost Sparse-view 3D Gaussian Splatting with Large Model Priors [34.91966359570867]
スパースビューの再構築は本質的に不適切であり、制約を受けていない。
本稿では,限られた画像から高品質な再構成を生成できるLM-Gaussianを紹介する。
提案手法は,従来の3DGS法と比較してデータ取得要求を大幅に削減する。
論文 参考訳(メタデータ) (2024-09-05T12:09:02Z) - RaNeuS: Ray-adaptive Neural Surface Reconstruction [87.20343320266215]
微分可能放射場 eg NeRF を利用して、新しいビューレンダリングを生成するとともに、詳細な3次元表面を再構成する。
本研究では,SDFから放射場への射影を一様等間隔のアイコニカル正規化で定式化し,最適化することを考えると,光度重み付け係数を改良する。
提案する textitRaNeuS は,合成データと実データの両方で広く評価されている。
論文 参考訳(メタデータ) (2024-06-14T07:54:25Z) - NeRSP: Neural 3D Reconstruction for Reflective Objects with Sparse Polarized Images [62.752710734332894]
NeRSPはスパース偏光画像を用いた反射面のニューラル3次元再構成技術である。
偏光画像形成モデルと多視点方位整合性から測光的および幾何学的手がかりを導出する。
我々は6つのビューのみを入力として、最先端の表面再構成結果を達成する。
論文 参考訳(メタデータ) (2024-06-11T09:53:18Z) - PGSR: Planar-based Gaussian Splatting for Efficient and High-Fidelity Surface Reconstruction [37.14913599050765]
高忠実表面再構成を実現するために,高速平面型ガウススプラッティング再構成表現(PGSR)を提案する。
次に、大域的幾何精度を維持するために、一視点幾何、多視点測光、幾何正則化を導入する。
提案手法は3DGS法およびNeRF法よりも優れた高忠実度レンダリングと幾何再構成を維持しつつ,高速なトレーニングとレンダリングを実現する。
論文 参考訳(メタデータ) (2024-06-10T17:59:01Z) - Cameras as Rays: Pose Estimation via Ray Diffusion [54.098613859015856]
カメラのポーズを推定することは3D再構成の基本的な課題であり、まばらにサンプリングされたビューを考えると依然として困難である。
本稿では,カメラを光束として扱うカメラポーズの分散表現を提案する。
提案手法は回帰法と拡散法の両方で,CO3Dのカメラポーズ推定における最先端性能を示す。
論文 参考訳(メタデータ) (2024-02-22T18:59:56Z) - RNb-NeuS: Reflectance and Normal-based Multi-View 3D Reconstruction [3.1820300989695833]
本稿では,光度ステレオにより得られる多視点反射率と正規写像を統合するための多目的パラダイムを提案する。
提案手法では, 反射率と正規度の画素ワイドな共同パラメータ化を, 放射光のベクトルとして用いた。
これは、高い曲率または低い視認性を持つ領域の詳細な3D再構成を大幅に改善する。
論文 参考訳(メタデータ) (2023-12-02T19:49:27Z) - $PC^2$: Projection-Conditioned Point Cloud Diffusion for Single-Image 3D
Reconstruction [97.06927852165464]
単一のRGB画像から物体の3次元形状を再構築することは、コンピュータビジョンにおける長年の課題である。
条件付き偏光拡散プロセスによりスパース点雲を生成する単一像3次元再構成法を提案する。
論文 参考訳(メタデータ) (2023-02-21T13:37:07Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。