論文の概要: ICP-3DGS: SfM-free 3D Gaussian Splatting for Large-scale Unbounded Scenes
- arxiv url: http://arxiv.org/abs/2506.21629v1
- Date: Tue, 24 Jun 2025 21:10:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 15:08:39.853837
- Title: ICP-3DGS: SfM-free 3D Gaussian Splatting for Large-scale Unbounded Scenes
- Title(参考訳): ICP-3DGS:大規模非有界シーンのためのSfMフリー3次元ガウススプラッティング
- Authors: Chenhao Zhang, Yezhi Shen, Fengqing Zhu,
- Abstract要約: 我々は,大規模なカメラ動作下での正確なカメラポーズ推定を実現するために,ICP(Iterative Closest Point)を最適化ベースの改良に組み込むことを提案する。
また,大規模なシーンの再現を導くために,ボクセルを用いたシーン密度化手法を導入する。
ICP-3DGSのアプローチは、カメラポーズ推定と新しいビュー合成の両方において、既存の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 4.089605790376984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, neural rendering methods such as NeRFs and 3D Gaussian Splatting (3DGS) have made significant progress in scene reconstruction and novel view synthesis. However, they heavily rely on preprocessed camera poses and 3D structural priors from structure-from-motion (SfM), which are challenging to obtain in outdoor scenarios. To address this challenge, we propose to incorporate Iterative Closest Point (ICP) with optimization-based refinement to achieve accurate camera pose estimation under large camera movements. Additionally, we introduce a voxel-based scene densification approach to guide the reconstruction in large-scale scenes. Experiments demonstrate that our approach ICP-3DGS outperforms existing methods in both camera pose estimation and novel view synthesis across indoor and outdoor scenes of various scales. Source code is available at https://github.com/Chenhao-Z/ICP-3DGS.
- Abstract(参考訳): 近年,NeRFや3D Gaussian Splatting(3DGS)などのニューラルレンダリング手法は,シーン再構成や新しいビュー合成において大きな進歩を遂げている。
しかし、屋外のシナリオでは入手が困難であるStructure-from-motion (SfM) から、事前処理されたカメラのポーズと3D構造的先行に大きく依存している。
この課題に対処するため、大規模なカメラ動作下での正確なカメラポーズ推定を実現するために、ICP(Iterative Closest Point)を最適化に基づく改善に組み込むことを提案する。
さらに,大規模なシーンの再現を導くために,ボクセルを用いたシーン密度化手法を導入する。
実験により、ICP-3DGSのアプローチは、様々なスケールの屋内および屋外のシーンにおいて、カメラポーズ推定と新しいビュー合成において、既存の手法よりも優れていることが示された。
ソースコードはhttps://github.com/Chenhao-Z/ICP-3DGSで入手できる。
関連論文リスト
- On-the-fly Reconstruction for Large-Scale Novel View Synthesis from Unposed Images [48.8544345503807]
撮影直後にカメラのポーズと3DGSの訓練を行うためのオンザフライ方式を提案する。
本手法は,順序付き写真シーケンスと大規模シーンの高密度かつ広帯域なキャプチャを処理できる。
論文 参考訳(メタデータ) (2025-06-05T20:10:18Z) - 3R-GS: Best Practice in Optimizing Camera Poses Along with 3DGS [36.48425755917156]
3D Gaussian Splatting (3DGS)はその効率と品質でニューラルレンダリングに革命をもたらした。
これはStructure-from-Motion (SfM)システムからの正確なカメラのポーズに大きく依存する。
このギャップを埋める3Dガウススプレイティングフレームワークである3R-GSを提案する。
論文 参考訳(メタデータ) (2025-04-05T22:31:08Z) - No Pose, No Problem: Surprisingly Simple 3D Gaussian Splats from Sparse Unposed Images [100.80376573969045]
NoPoSplatは、多視点画像から3Dガウスアンによってパラメータ化された3Dシーンを再構成できるフィードフォワードモデルである。
提案手法は,推定時にリアルタイムな3次元ガウス再構成を実現する。
この研究は、ポーズフリーの一般化可能な3次元再構成において大きな進歩をもたらし、実世界のシナリオに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:58:22Z) - GSplatLoc: Grounding Keypoint Descriptors into 3D Gaussian Splatting for Improved Visual Localization [1.4466437171584356]
軽量なXFeat特徴抽出器から高密度かつ堅牢なキーポイント記述器を3DGSに統合する2段階の手順を提案する。
第2段階では、レンダリングベースの光度ワープ損失を最小限に抑え、初期ポーズ推定を洗練させる。
広く使われている屋内および屋外データセットのベンチマークは、最近のニューラルレンダリングベースのローカライゼーション手法よりも改善されていることを示している。
論文 参考訳(メタデータ) (2024-09-24T23:18:32Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - GaussianPro: 3D Gaussian Splatting with Progressive Propagation [49.918797726059545]
3DGSはStructure-from-Motion (SfM)技術によって生成されるポイントクラウドに大きく依存している。
本稿では, 3次元ガウスの密度化を導くために, プログレッシブ・プログレッシブ・プログレッシブ・ストラテジーを適用した新しい手法を提案する。
提案手法はデータセット上の3DGSを大幅に上回り,PSNRでは1.15dBの改善が見られた。
論文 参考訳(メタデータ) (2024-02-22T16:00:20Z) - COLMAP-Free 3D Gaussian Splatting [88.420322646756]
本稿では,SfM前処理を使わずに新しいビュー合成を実現する手法を提案する。
入力フレームを逐次的に処理し、一度に1つの入力フレームを取ることで3Dガウスを段階的に成長させる。
提案手法は, 映像合成とカメラポーズ推定において, 大きな動き変化下での従来手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-12-12T18:39:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。