論文の概要: MRASfM: Multi-Camera Reconstruction and Aggregation through Structure-from-Motion in Driving Scenes
- arxiv url: http://arxiv.org/abs/2510.15467v1
- Date: Fri, 17 Oct 2025 09:20:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.55679
- Title: MRASfM: Multi-Camera Reconstruction and Aggregation through Structure-from-Motion in Driving Scenes
- Title(参考訳): MRASfM: 運転シーンにおける構造移動によるマルチカメラ再構成と凝集
- Authors: Lingfeng Xuan, Chang Nie, Yiqing Xu, Zhe Liu, Yanzi Miao, Hesheng Wang,
- Abstract要約: 本研究では,シーンの駆動に特化して設計されたMRASfM(Multi-camera Reconstruction and Aggregation Structure-from-Motion)フレームワークを提案する。
MRASfMは、登録プロセス中にマルチカメラシステム内の固定空間関係を利用して、カメラポーズ推定の信頼性を高める。
Bundle Adjustment (BA) において、マルチカメラセットを単一ユニットとして扱うことは、最適化変数の削減と効率の向上に役立つ。
- 参考スコア(独自算出の注目度): 20.625799448587703
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Structure from Motion (SfM) estimates camera poses and reconstructs point clouds, forming a foundation for various tasks. However, applying SfM to driving scenes captured by multi-camera systems presents significant difficulties, including unreliable pose estimation, excessive outliers in road surface reconstruction, and low reconstruction efficiency. To address these limitations, we propose a Multi-camera Reconstruction and Aggregation Structure-from-Motion (MRASfM) framework specifically designed for driving scenes. MRASfM enhances the reliability of camera pose estimation by leveraging the fixed spatial relationships within the multi-camera system during the registration process. To improve the quality of road surface reconstruction, our framework employs a plane model to effectively remove erroneous points from the triangulated road surface. Moreover, treating the multi-camera set as a single unit in Bundle Adjustment (BA) helps reduce optimization variables to boost efficiency. In addition, MRASfM achieves multi-scene aggregation through scene association and assembly modules in a coarse-to-fine fashion. We deployed multi-camera systems on actual vehicles to validate the generalizability of MRASfM across various scenes and its robustness in challenging conditions through real-world applications. Furthermore, large-scale validation results on public datasets show the state-of-the-art performance of MRASfM, achieving 0.124 absolute pose error on the nuScenes dataset.
- Abstract(参考訳): Structure from Motion (SfM)は、カメラのポーズを推定し、点雲を再構築し、様々なタスクの基礎を形成する。
しかし、SfMをマルチカメラシステムで捉えた運転シーンに適用すると、信頼性の低いポーズ推定、路面復元における過度なアウトリージ、低い再建効率など、重大な困難が生じる。
これらの制約に対処するために,シーンの駆動に特化して設計されたMRASfM(Multi-camera Reconstruction and Aggregation Structure-from-Motion)フレームワークを提案する。
MRASfMは、登録プロセス中にマルチカメラシステム内の固定空間関係を利用して、カメラポーズ推定の信頼性を高める。
道路路面復元の質を向上させるため,道路路面から誤点を効果的に除去する平面モデルを構築した。
さらに、マルチカメラセットをバンドル調整(BA)の単一ユニットとして扱うことは、最適化変数の削減と効率の向上に役立つ。
さらにMRASfMは,シーンアソシエーションやアセンブリモジュールを通じて,粗大な方法で多シーンアグリゲーションを実現する。
我々は、MRASfMの様々な場面における一般化可能性を検証するために、実車にマルチカメラシステムを導入し、現実の応用を通して、困難な状況下での堅牢性を検証した。
さらに、公開データセット上の大規模な検証結果からは、MRASfMの最先端性能が示され、nuScenesデータセット上で0.124の絶対ポーズエラーが達成された。
関連論文リスト
- XYZCylinder: Feedforward Reconstruction for Driving Scenes Based on A Unified Cylinder Lifting Method [27.213339282749885]
統一シリンダリフト法に基づくフィードフォワードモデルである textbfXYZ Cylinder を提案する。
具体的には、視点に依存した空間対応の学習を避けるため、UCCM(Unified Cylinder Camera Modeling)戦略を設計する。
再構成精度を向上させるために,新たに設計されたCylinder Plane Feature Groupに基づく複数の専用モジュールを用いたハイブリッド表現を提案する。
論文 参考訳(メタデータ) (2025-10-09T06:58:03Z) - CVD-SfM: A Cross-View Deep Front-end Structure-from-Motion System for Sparse Localization in Multi-Altitude Scenes [0.7623023317942882]
本稿では,様々な高度にまたがるロバストかつ正確な位置決めの課題に対処する,新しい多高度カメラポーズ推定システムを提案する。
このシステムは, クロスビュートランス, 深い特徴, 動きからの構造を統合して, 多様な環境条件や視点変化を効果的に処理する。
論文 参考訳(メタデータ) (2025-08-03T22:11:48Z) - MGSfM: Multi-Camera Geometry Driven Global Structure-from-Motion [13.24058110580706]
マルチカメラシステムのための新しいグローバルモーション平均化フレームワークを提案する。
我々のシステムは、効率を大幅に改善しながら、漸進的なSfM精度に適合または超える。
論文 参考訳(メタデータ) (2025-07-04T05:25:00Z) - PFSD: A Multi-Modal Pedestrian-Focus Scene Dataset for Rich Tasks in Semi-Structured Environments [73.80718037070773]
本稿では, 半構造化シーンに, nuScenesの形式を付加したマルチモーダルなPedestrian-Focused Sceneデータセットを提案する。
また,密集・隠蔽シナリオにおける歩行者検出のためのHMFN(Hybrid Multi-Scale Fusion Network)を提案する。
論文 参考訳(メタデータ) (2025-02-21T09:57:53Z) - MC-BEVRO: Multi-Camera Bird Eye View Road Occupancy Detection for Traffic Monitoring [23.396192711865147]
交通監視のための単一カメラの3次元認識は、閉塞性や視野の制限により大きな課題に直面している。
本稿では,複数の路面カメラを活用した新しいBird's-Eye-Viewロード占有検知フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-16T22:03:03Z) - FreeSplatter: Pose-free Gaussian Splatting for Sparse-view 3D Reconstruction [69.63414788486578]
FreeSplatterはスケーラブルなフィードフォワードフレームワークで、キャリブレーションされていないスパースビュー画像から高品質な3Dガウシアンを生成する。
当社のアプローチでは,自己注意ブロックが情報交換を容易にする合理化トランスフォーマーアーキテクチャを採用している。
包括的データセットに基づいて,オブジェクト中心とシーンレベルの再構築のための2つの特殊な変種を開発する。
論文 参考訳(メタデータ) (2024-12-12T18:52:53Z) - RoMo: Robust Motion Segmentation Improves Structure from Motion [46.77236343300953]
本稿では,固定世界フレームを移動中のシーンの構成要素を特定するために,映像に基づくモーションセグメンテーションの新たなアプローチを提案する。
我々の単純かつ効果的な反復法であるRoMoは、光フローとエピポーラキューと事前訓練されたビデオセグメンテーションモデルを組み合わせたものである。
さらに重要なのは、市販のSfMパイプラインとセグメンテーションマスクを組み合わせることで、ダイナミックなコンテンツを持つシーンに対する最先端のカメラキャリブレーションを新たに確立し、既存の手法を実質的なマージンで上回ることだ。
論文 参考訳(メタデータ) (2024-11-27T01:09:56Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Robustifying the Multi-Scale Representation of Neural Radiance Fields [86.69338893753886]
実世界の画像の両問題を克服するために,頑健なマルチスケールニューラルラジアンス場表現手法を提案する。
提案手法は,NeRFにインスパイアされたアプローチを用いて,マルチスケール画像効果とカメラ位置推定問題に対処する。
例えば、日常的に取得したマルチビュー画像からオブジェクトの正確な神経表現を行うためには、カメラの正確な位置推定が不可欠であることを示す。
論文 参考訳(メタデータ) (2022-10-09T11:46:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。