論文の概要: On-the-fly Reconstruction for Large-Scale Novel View Synthesis from Unposed Images
- arxiv url: http://arxiv.org/abs/2506.05558v1
- Date: Thu, 05 Jun 2025 20:10:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.22
- Title: On-the-fly Reconstruction for Large-Scale Novel View Synthesis from Unposed Images
- Title(参考訳): 非ポーズ画像からの大規模新規ビュー合成のためのオンザフライ再構成
- Authors: Andreas Meuleman, Ishaan Shah, Alexandre Lanvin, Bernhard Kerbl, George Drettakis,
- Abstract要約: 撮影直後にカメラのポーズと3DGSの訓練を行うためのオンザフライ方式を提案する。
本手法は,順序付き写真シーケンスと大規模シーンの高密度かつ広帯域なキャプチャを処理できる。
- 参考スコア(独自算出の注目度): 48.8544345503807
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Radiance field methods such as 3D Gaussian Splatting (3DGS) allow easy reconstruction from photos, enabling free-viewpoint navigation. Nonetheless, pose estimation using Structure from Motion and 3DGS optimization can still each take between minutes and hours of computation after capture is complete. SLAM methods combined with 3DGS are fast but struggle with wide camera baselines and large scenes. We present an on-the-fly method to produce camera poses and a trained 3DGS immediately after capture. Our method can handle dense and wide-baseline captures of ordered photo sequences and large-scale scenes. To do this, we first introduce fast initial pose estimation, exploiting learned features and a GPU-friendly mini bundle adjustment. We then introduce direct sampling of Gaussian primitive positions and shapes, incrementally spawning primitives where required, significantly accelerating training. These two efficient steps allow fast and robust joint optimization of poses and Gaussian primitives. Our incremental approach handles large-scale scenes by introducing scalable radiance field construction, progressively clustering 3DGS primitives, storing them in anchors, and offloading them from the GPU. Clustered primitives are progressively merged, keeping the required scale of 3DGS at any viewpoint. We evaluate our solution on a variety of datasets and show that our solution can provide on-the-fly processing of all the capture scenarios and scene sizes we target while remaining competitive with other methods that only handle specific capture styles or scene sizes in speed, image quality, or both.
- Abstract(参考訳): 3D Gaussian Splatting(3DGS)のような放射場法は、写真から簡単に再構成でき、自由視点ナビゲーションを可能にする。
それでも、Structure from Motionと3DGS最適化を用いたポーズ推定は、キャプチャが完了した後も、毎分数分から数時間の計算を行うことができる。
3DGSと組み合わされたSLAM法は高速だが、広いカメラのベースラインと大きなシーンで苦労する。
撮影直後にカメラのポーズと3DGSの訓練を行うためのオンザフライ方式を提案する。
本手法は,順序付き写真シーケンスと大規模シーンの高密度かつ広帯域なキャプチャを処理できる。
これを実現するために、まず、高速な初期ポーズ推定、学習機能の利用、GPUフレンドリなミニバンドル調整を導入する。
次に,ガウスの原始的位置と形状を直接サンプリングし,必要な場合の原始的位置を段階的に生成し,訓練を著しく加速する。
これら2つの効率的なステップは、ポーズとガウス原始体の高速で堅牢な共同最適化を可能にする。
当社のインクリメンタルアプローチは、スケーラブルなラディアンスフィールドの構築を導入し、3DGSプリミティブを段階的にクラスタ化し、アンカーに格納し、GPUからそれらをオフロードすることで、大規模なシーンを処理します。
クラスタ化されたプリミティブは徐々にマージされ、3DGSの必要なスケールはあらゆる視点で維持される。
さまざまなデータセットでソリューションを評価し、ターゲットとするすべてのキャプチャシナリオとシーンサイズをオンザフライで処理できる一方で、特定のキャプチャスタイルやシーンサイズのみをスピード、画質、あるいはその両方で処理する他の方法と競合することを示す。
関連論文リスト
- KeyGS: A Keyframe-Centric Gaussian Splatting Method for Monocular Image Sequences [14.792295042683254]
深度やマッチングモデルなしで動作可能な,効率的なフレームワークを提案する。
そこで本研究では,細かな周波数認識による粗大な密度密度化を提案し,異なるレベルの詳細を再構築する。
論文 参考訳(メタデータ) (2024-12-30T07:32:35Z) - SfM-Free 3D Gaussian Splatting via Hierarchical Training [42.85362760049813]
本研究では、ビデオ入力のための新しいSfM-Free 3DGS(SFGS)手法を提案し、既知のカメラポーズやSfM前処理の必要性を排除した。
提案手法では,複数の3次元ガウス表現を1つの統一3DGSモデルに訓練・統合する階層的学習戦略を導入する。
実験の結果,本手法は最先端のSfMフリー新規ビュー合成法を大きく上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2024-12-02T14:39:06Z) - Look Gauss, No Pose: Novel View Synthesis using Gaussian Splatting without Accurate Pose Initialization [11.418632671254564]
3D Gaussian Splattingは、一連の入力画像から高速で正確なノベルビュー合成のための強力なツールとして登場した。
本稿では, 外部カメラパラメータを測光残差に対して最適化することにより, 3次元ガウス散乱フレームワークの拡張を提案する。
シミュレーション環境を通して実世界のシーンと複雑な軌道について結果を示す。
論文 参考訳(メタデータ) (2024-10-11T12:01:15Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本研究では,視覚的忠実度と前景の細部を高い圧縮比で保持する原理的感度プルーニングスコアを提案する。
また,トレーニングパイプラインを変更することなく,事前訓練した任意の3D-GSモデルに適用可能な複数ラウンドプルーファインパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - BAA-NGP: Bundle-Adjusting Accelerated Neural Graphics Primitives [6.431806897364565]
ロボットは2D画像から3D環境を理解することができる。
本稿では,バンドル調整型高速化ニューラルネットワークプリミティブ(BAA-NGP)というフレームワークを提案する。
その結果,他の束調整型ニューラルラジアンスフィールド法と比較して10~20倍の速度向上が得られた。
論文 参考訳(メタデータ) (2023-06-07T05:36:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。