論文の概要: GCRayDiffusion: Pose-Free Surface Reconstruction via Geometric Consistent Ray Diffusion
- arxiv url: http://arxiv.org/abs/2503.22349v1
- Date: Fri, 28 Mar 2025 11:45:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 19:09:59.671912
- Title: GCRayDiffusion: Pose-Free Surface Reconstruction via Geometric Consistent Ray Diffusion
- Title(参考訳): GCRay拡散:幾何学的一貫した光拡散による無孔表面の再構成
- Authors: Li-Heng Chen, Zi-Xin Zou, Chang Liu, Tianjiao Jing, Yan-Pei Cao, Shi-Sheng Huang, Hongbo Fu, Hua Huang,
- Abstract要約: 従来のアプローチでは、高密度ビュー設定において、ポーズのない表面再構成結果が顕著に達成されている。
カメラポーズ推定の線量拡散から抽出した明示的な点による学習を規則化する,ポーズレス表面再構成のための新しい手法を提案する。
我々のGCRayDiffusionは、幾何的に一貫した表面再構成結果により、従来のアプローチよりも正確なカメラポーズ推定を実現している。
- 参考スコア(独自算出の注目度): 30.773599974914415
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate surface reconstruction from unposed images is crucial for efficient 3D object or scene creation. However, it remains challenging, particularly for the joint camera pose estimation. Previous approaches have achieved impressive pose-free surface reconstruction results in dense-view settings, but could easily fail for sparse-view scenarios without sufficient visual overlap. In this paper, we propose a new technique for pose-free surface reconstruction, which follows triplane-based signed distance field (SDF) learning but regularizes the learning by explicit points sampled from ray-based diffusion of camera pose estimation. Our key contribution is a novel Geometric Consistent Ray Diffusion model (GCRayDiffusion), where we represent camera poses as neural bundle rays and regress the distribution of noisy rays via a diffusion model. More importantly, we further condition the denoising process of RGRayDiffusion using the triplane-based SDF of the entire scene, which provides effective 3D consistent regularization to achieve multi-view consistent camera pose estimation. Finally, we incorporate RGRayDiffusion into the triplane-based SDF learning by introducing on-surface geometric regularization from the sampling points of the neural bundle rays, which leads to highly accurate pose-free surface reconstruction results even for sparse-view inputs. Extensive evaluations on public datasets show that our GCRayDiffusion achieves more accurate camera pose estimation than previous approaches, with geometrically more consistent surface reconstruction results, especially given sparse-view inputs.
- Abstract(参考訳): 非ポーズ画像からの正確な表面再構成は、効率的な3Dオブジェクトやシーン作成に不可欠である。
しかし、特にジョイントカメラのポーズ推定では、依然として困難である。
従来のアプローチでは、濃密なビュー設定でポーズレス表面再構成の結果は目覚ましいが、十分な視覚的オーバーラップを伴わずに、スパースビューのシナリオでは容易に失敗する可能性がある。
本稿では,3次元平面を用いた符号付き距離場(SDF)学習に続くポーズレス表面再構成手法を提案するが,カメラポーズ推定の線量拡散から抽出した明示的な点による学習を規則化する。
我々の重要な貢献は、新しいGeometric Consistent Ray Diffusion Model (GCRayDiffusion) である。
さらに重要なことは、RGRayDiffusionのデノイング過程を、シーン全体のトリプレーンベース SDF を用いて、より効果的に3次元一貫した正規化を行い、マルチビュー一貫したカメラポーズ推定を実現することである。
最後に、RGRayDiffusionを三面体に基づくSDF学習に組み込むことにより、ニューラルネットワークのサンプリング点から地上の幾何学的正則化を導入し、スパースビュー入力においても高精度なポーズレス表面再構成結果を得る。
公開データセットの広範な評価により,GCRayDiffusionは従来手法よりも高精度なカメラポーズ推定を実現しており,特にスパースビュー入力の場合,幾何的に一貫した表面再構成結果が得られることがわかった。
関連論文リスト
- PMNI: Pose-free Multi-view Normal Integration for Reflective and Textureless Surface Reconstruction [20.667434274495957]
神経表面再構成法PMNI(Pose-free Multi-view Normal Integration)を提案する。
表面の正規と多視点形状の整合性から幾何的制約を強制することにより、PMNIは同時に正確なカメラポーズと高忠実な表面形状を復元する。
合成および実世界のデータセットを用いた実験結果から,反射面の再構成における最先端性能が得られた。
論文 参考訳(メタデータ) (2025-04-11T10:16:55Z) - Decompositional Neural Scene Reconstruction with Generative Diffusion Prior [64.71091831762214]
完全な形状と詳細なテクスチャを持つ3次元シーンの分解的再構成は、下流の応用に興味深い。
近年のアプローチでは、この問題に対処するために意味的あるいは幾何学的正則化が取り入れられているが、制約の少ない領域では著しく劣化している。
本稿では,SDS(Score Distillation Sampling)の形で拡散先行値を用いたDP-Reconを提案し,新しい視点下で個々の物体の神経表現を最適化する。
論文 参考訳(メタデータ) (2025-03-19T02:11:31Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [84.07233691641193]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - Gaussian Scenes: Pose-Free Sparse-View Scene Reconstruction using Depth-Enhanced Diffusion Priors [5.407319151576265]
本研究では2次元画像の粗い集合から360度シーンのポーズなし(カメラパラメータなしで)再構成のための生成的アプローチを提案する。
画像から画像への生成モデルを提案し、3Dシーンの新たな画像レンダリングと深度マップにおいて、欠落した詳細を描き、アーティファクトを除去する。
論文 参考訳(メタデータ) (2024-11-24T19:34:58Z) - RaNeuS: Ray-adaptive Neural Surface Reconstruction [87.20343320266215]
微分可能放射場 eg NeRF を利用して、新しいビューレンダリングを生成するとともに、詳細な3次元表面を再構成する。
本研究では,SDFから放射場への射影を一様等間隔のアイコニカル正規化で定式化し,最適化することを考えると,光度重み付け係数を改良する。
提案する textitRaNeuS は,合成データと実データの両方で広く評価されている。
論文 参考訳(メタデータ) (2024-06-14T07:54:25Z) - NeRSP: Neural 3D Reconstruction for Reflective Objects with Sparse Polarized Images [62.752710734332894]
NeRSPはスパース偏光画像を用いた反射面のニューラル3次元再構成技術である。
偏光画像形成モデルと多視点方位整合性から測光的および幾何学的手がかりを導出する。
我々は6つのビューのみを入力として、最先端の表面再構成結果を達成する。
論文 参考訳(メタデータ) (2024-06-11T09:53:18Z) - PGSR: Planar-based Gaussian Splatting for Efficient and High-Fidelity Surface Reconstruction [37.14913599050765]
高忠実表面再構成を実現するために,高速平面型ガウススプラッティング再構成表現(PGSR)を提案する。
次に、大域的幾何精度を維持するために、一視点幾何、多視点測光、幾何正則化を導入する。
提案手法は3DGS法およびNeRF法よりも優れた高忠実度レンダリングと幾何再構成を維持しつつ,高速なトレーニングとレンダリングを実現する。
論文 参考訳(メタデータ) (2024-06-10T17:59:01Z) - Cameras as Rays: Pose Estimation via Ray Diffusion [54.098613859015856]
カメラのポーズを推定することは3D再構成の基本的な課題であり、まばらにサンプリングされたビューを考えると依然として困難である。
本稿では,カメラを光束として扱うカメラポーズの分散表現を提案する。
提案手法は回帰法と拡散法の両方で,CO3Dのカメラポーズ推定における最先端性能を示す。
論文 参考訳(メタデータ) (2024-02-22T18:59:56Z) - $PC^2$: Projection-Conditioned Point Cloud Diffusion for Single-Image 3D
Reconstruction [97.06927852165464]
単一のRGB画像から物体の3次元形状を再構築することは、コンピュータビジョンにおける長年の課題である。
条件付き偏光拡散プロセスによりスパース点雲を生成する単一像3次元再構成法を提案する。
論文 参考訳(メタデータ) (2023-02-21T13:37:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。