論文の概要: Unposed 3DGS Reconstruction with Probabilistic Procrustes Mapping
- arxiv url: http://arxiv.org/abs/2507.18541v1
- Date: Thu, 24 Jul 2025 16:08:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:44.028343
- Title: Unposed 3DGS Reconstruction with Probabilistic Procrustes Mapping
- Title(参考訳): 確率論的プロクリストマッピングを用いた3次元画像再構成
- Authors: Chong Cheng, Zijian Wang, Sicheng Yu, Yu Hu, Nanjie Yao, Hao Wang,
- Abstract要約: 本稿では,事前学習したMVSを確率論的Procrustesマッピング戦略と統合した新しい3DGS再構成フレームワークを提案する。
提案手法は,非ポーズ画像列からの正確な再構成を実現し,非ポーズ3DGS再構成のための新しい手法の確立を図っている。
- 参考スコア(独自算出の注目度): 10.88046882501116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D Gaussian Splatting (3DGS) has emerged as a core technique for 3D representation. Its effectiveness largely depends on precise camera poses and accurate point cloud initialization, which are often derived from pretrained Multi-View Stereo (MVS) models. However, in unposed reconstruction task from hundreds of outdoor images, existing MVS models may struggle with memory limits and lose accuracy as the number of input images grows. To address this limitation, we propose a novel unposed 3DGS reconstruction framework that integrates pretrained MVS priors with the probabilistic Procrustes mapping strategy. The method partitions input images into subsets, maps submaps into a global space, and jointly optimizes geometry and poses with 3DGS. Technically, we formulate the mapping of tens of millions of point clouds as a probabilistic Procrustes problem and solve a closed-form alignment. By employing probabilistic coupling along with a soft dustbin mechanism to reject uncertain correspondences, our method globally aligns point clouds and poses within minutes across hundreds of images. Moreover, we propose a joint optimization framework for 3DGS and camera poses. It constructs Gaussians from confidence-aware anchor points and integrates 3DGS differentiable rendering with an analytical Jacobian to jointly refine scene and poses, enabling accurate reconstruction and pose estimation. Experiments on Waymo and KITTI datasets show that our method achieves accurate reconstruction from unposed image sequences, setting a new state of the art for unposed 3DGS reconstruction.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)が3D表現のコア技術として登場した。
その有効性は、しばしば事前訓練されたマルチビューステレオ(MVS)モデルに由来する、正確なカメラポーズと正確なポイントクラウドの初期化に大きく依存する。
しかし、何百もの屋外画像からの未提案の再構成タスクでは、既存のMVSモデルはメモリ制限に悩まされ、入力画像の数が増加するにつれて精度が低下する可能性がある。
この制限に対処するために,事前学習型MVSと確率論的Procrustesマッピング戦略を統合した,新規な3DGS再構成フレームワークを提案する。
入力画像をサブセットに分割し、サブマップをグローバル空間にマップし、3DGSと共同で幾何学とポーズを最適化する。
技術的には、数千万の点雲のマッピングを確率論的プロクリスト問題として定式化し、閉形式のアライメントを解決する。
確率的結合とソフトなダストビン機構を併用して不確実な対応を断ち切ることにより、この手法は点雲をグローバルに整列させ、数百の画像で数分以内にポーズする。
さらに,3DGSとカメラポーズの協調最適化フレームワークを提案する。
自信に敏感なアンカーポイントからガウスアンを構築し、3DGSの微分レンダリングを分析的ヤコビアンと統合し、シーンとポーズを共同で洗練し、正確な再構築とポーズ推定を可能にする。
Waymo と KITTI のデータセットを用いた実験により,提案手法は非ポーズ画像列からの正確な再構成を実現し,非ポーズ3DGS 再構成のための新しい最先端技術を構築した。
関連論文リスト
- Sparse-view Pose Estimation and Reconstruction via Analysis by Generative Synthesis [25.898616784744377]
観察されたビューの少ないセットを考えると、その観察は完全な正確な3Dを得るのに十分な直接的な証拠を与えていないかもしれない。
a) 新規なビュー合成に基づく生成先行を光度目標と組み合わせて、推定された3Dの質を向上させる方法、(b) アウトレーヤを明示的に推論し、連続最適化に基づく戦略による離散探索を用いて補正する手法であるSparseAGSを提案する。
論文 参考訳(メタデータ) (2024-12-04T18:59:24Z) - USP-Gaussian: Unifying Spike-based Image Reconstruction, Pose Correction and Gaussian Splatting [45.246178004823534]
スパイクカメラは、0-1ビットストリームを40kHzで撮影する革新的なニューロモルフィックカメラとして、ますます3D再構成タスクに採用されている。
以前のスパイクベースの3D再構成アプローチでは、ケースケースのパイプラインを使うことが多い。
本稿では,スパイクに基づく画像再構成,ポーズ補正,ガウス的スプラッティングをエンドツーエンドのフレームワークに統一する,相乗的最適化フレームワーク textbfUSP-Gaussian を提案する。
論文 参考訳(メタデータ) (2024-11-15T14:15:16Z) - No Pose, No Problem: Surprisingly Simple 3D Gaussian Splats from Sparse Unposed Images [100.80376573969045]
NoPoSplatは、多視点画像から3Dガウスアンによってパラメータ化された3Dシーンを再構成できるフィードフォワードモデルである。
提案手法は,推定時にリアルタイムな3次元ガウス再構成を実現する。
この研究は、ポーズフリーの一般化可能な3次元再構成において大きな進歩をもたらし、実世界のシナリオに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:58:22Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。