論文の概要: On-the-fly Large-scale 3D Reconstruction from Multi-Camera Rigs
- arxiv url: http://arxiv.org/abs/2512.08498v1
- Date: Tue, 09 Dec 2025 11:26:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.934098
- Title: On-the-fly Large-scale 3D Reconstruction from Multi-Camera Rigs
- Title(参考訳): マルチカメラリグによるオンザフライ大規模3次元再構成
- Authors: Yijia Guo, Tong Hu, Zhiwei Li, Liwen Hu, Keming Qian, Xitong Lin, Shengbo Chen, Tiejun Huang, Lei Ma,
- Abstract要約: マルチカメラリグのための初となるオンザフライ3D再構成フレームワークを提示する。
本手法は,生のマルチカメラ映像ストリームのみを用いて,わずか2分で数百メートルの3Dシーンを再構成する。
- 参考スコア(独自算出の注目度): 27.867668843780553
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in 3D Gaussian Splatting (3DGS) have enabled efficient free-viewpoint rendering and photorealistic scene reconstruction. While on-the-fly extensions of 3DGS have shown promise for real-time reconstruction from monocular RGB streams, they often fail to achieve complete 3D coverage due to the limited field of view (FOV). Employing a multi-camera rig fundamentally addresses this limitation. In this paper, we present the first on-the-fly 3D reconstruction framework for multi-camera rigs. Our method incrementally fuses dense RGB streams from multiple overlapping cameras into a unified Gaussian representation, achieving drift-free trajectory estimation and efficient online reconstruction. We propose a hierarchical camera initialization scheme that enables coarse inter-camera alignment without calibration, followed by a lightweight multi-camera bundle adjustment that stabilizes trajectories while maintaining real-time performance. Furthermore, we introduce a redundancy-free Gaussian sampling strategy and a frequency-aware optimization scheduler to reduce the number of Gaussian primitives and the required optimization iterations, thereby maintaining both efficiency and reconstruction fidelity. Our method reconstructs hundreds of meters of 3D scenes within just 2 minutes using only raw multi-camera video streams, demonstrating unprecedented speed, robustness, and Fidelity for on-the-fly 3D scene reconstruction.
- Abstract(参考訳): 近年の3Dガウススプラッティング(3DGS)は、効率的な自由視点レンダリングと光写実的シーン再構成を実現している。
3DGSのオンザフライ拡張は、単眼のRGBストリームからのリアルタイム再構築を約束しているが、視野の制限(FOV)のため、多くの場合、完全な3Dカバレッジを達成できない。
マルチカメラリグを使用することは、この制限を根本的に解決する。
本稿では,マルチカメラリグのための初となる3D再構成フレームワークを提案する。
提案手法は,複数の重なり合うカメラからの高密度RGBストリームをガウス表現に段階的に融合し,ドリフトフリー軌道推定と効率的なオンライン再構成を実現する。
キャリブレーションを伴わない粗いカメラ間アライメントを実現する階層型カメラの初期化手法を提案する。
さらに、冗長性のないガウスサンプリング戦略と周波数対応最適化スケジューラを導入し、ガウスプリミティブの数と必要な最適化イテレーションを減らし、効率性と再現性の両方を維持する。
本手法は, 生のマルチカメラ映像ストリームのみを用いて, 2分間で数百mの3Dシーンを再構成し, 前例のない速度, 頑健さ, 忠実さをオンザフライ3Dシーンで再現する。
関連論文リスト
- ACT-R: Adaptive Camera Trajectories for Single View 3D Reconstruction [16.03389355810877]
多視点合成に適応的な視点計画法を導入する。
我々は3次元コヒーレンスを高めるために時間的一貫性を活用して一連のビューを生成する。
論文 参考訳(メタデータ) (2025-05-13T05:31:59Z) - Regist3R: Incremental Registration with Stereo Foundation Model [22.636140424781455]
コンピュータビジョンの分野では、マルチビュー3D再構成は不可欠だが難しい問題である。
本稿では,効率的かつスケーラブルな漸進的再構築に適した新しいステレオ基礎モデルであるRegist3Rを提案する。
カメラポーズ推定と3次元再構成のための公開データセット上でRegist3Rを評価する。
論文 参考訳(メタデータ) (2025-04-16T02:46:53Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - FreeSplatter: Pose-free Gaussian Splatting for Sparse-view 3D Reconstruction [69.63414788486578]
FreeSplatterはスケーラブルなフィードフォワードフレームワークで、キャリブレーションされていないスパースビュー画像から高品質な3Dガウシアンを生成する。
当社のアプローチでは,自己注意ブロックが情報交換を容易にする合理化トランスフォーマーアーキテクチャを採用している。
包括的データセットに基づいて,オブジェクト中心とシーンレベルの再構築のための2つの特殊な変種を開発する。
論文 参考訳(メタデータ) (2024-12-12T18:52:53Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - Gaussian Splatting SLAM [16.3858380078553]
単分子SLAMにおける3次元ガウス散乱の最初の応用について述べる。
我々の方法は3fpsで動作し、正確な追跡、マッピング、高品質なレンダリングに必要な表現を統一する。
ライブカメラから高忠実度で連続的に3Dシーンを再構築するためには、いくつかの革新が必要である。
論文 参考訳(メタデータ) (2023-12-11T18:19:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。