論文の概要: MamV2XCalib: V2X-based Target-less Infrastructure Camera Calibration with State Space Model
- arxiv url: http://arxiv.org/abs/2507.23595v1
- Date: Thu, 31 Jul 2025 14:33:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:09.922546
- Title: MamV2XCalib: V2X-based Target-less Infrastructure Camera Calibration with State Space Model
- Title(参考訳): MamV2XCalib:状態空間モデルによるV2Xベースのターゲットレスインフラストラクチャカメラキャリブレーション
- Authors: Yaoye Zhu, Zhe Wang, Yan Wang,
- Abstract要約: MamV2XCalibはV2Xベースのインフラカメラキャリブレーション方式であり、車側LiDARを補助している。
新たなターゲットレスLiDARカメラキャリブレーション法は、車両側点雲と道路側画像との相関を推定する。
V2X-SeqおよびTUMTraf-V2X実世界のデータセット上でMamV2XCalibを評価する。
- 参考スコア(独自算出の注目度): 6.348458767377821
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As cooperative systems that leverage roadside cameras to assist autonomous vehicle perception become increasingly widespread, large-scale precise calibration of infrastructure cameras has become a critical issue. Traditional manual calibration methods are often time-consuming, labor-intensive, and may require road closures. This paper proposes MamV2XCalib, the first V2X-based infrastructure camera calibration method with the assistance of vehicle-side LiDAR. MamV2XCalib only requires autonomous vehicles equipped with LiDAR to drive near the cameras to be calibrated in the infrastructure, without the need for specific reference objects or manual intervention. We also introduce a new targetless LiDAR-camera calibration method, which combines multi-scale features and a 4D correlation volume to estimate the correlation between vehicle-side point clouds and roadside images. We model the temporal information and estimate the rotation angles with Mamba, effectively addressing calibration failures in V2X scenarios caused by defects in the vehicle-side data (such as occlusions) and large differences in viewpoint. We evaluate MamV2XCalib on the V2X-Seq and TUMTraf-V2X real-world datasets, demonstrating the effectiveness and robustness of our V2X-based automatic calibration approach. Compared to previous LiDAR-camera methods designed for calibration on one car, our approach achieves better and more stable calibration performance in V2X scenarios with fewer parameters. The code is available at https://github.com/zhuyaoye/MamV2XCalib.
- Abstract(参考訳): 道路沿いのカメラを活用して自動運転車の認識を支援する協調システムがますます普及するにつれ、インフラカメラの大規模な正確な校正が重要な問題となっている。
伝統的な手動キャリブレーション法は、しばしば時間がかかり、労働集約的であり、道路閉鎖を必要とすることがある。
本稿では,車側LiDARを用いたV2Xベースのインフラストラクチャカメラキャリブレーション手法であるMamV2XCalibを提案する。
MamV2XCalibは、LiDARを装備した自動運転車にしか、特定の参照オブジェクトや手動介入を必要とせず、カメラの近くを走行してインフラ内で校正を行なわなければならない。
また,車側点雲と路側画像との相関を推定するために,マルチスケール特徴量と4次元相関量を組み合わせた新たなLiDARカメラキャリブレーション手法を提案する。
我々は、時間情報をモデル化し、Mambaを用いて回転角を推定し、車側データ(オクルージョンなど)の欠陥や視点差によるV2Xシナリオのキャリブレーション障害に効果的に対処する。
我々は、V2X-SeqおよびTUMTraf-V2X実世界のデータセット上でMamV2XCalibを評価し、V2Xベースの自動校正手法の有効性とロバスト性を実証した。
従来のLiDARカメラを用いた1台の車載キャリブレーション法と比較して,パラメータが少ないV2Xシナリオでは,キャリブレーション性能が向上し,安定したキャリブレーション性能が得られた。
コードはhttps://github.com/zhuyaoye/MamV2XCalib.comで公開されている。
関連論文リスト
- CalibRefine: Deep Learning-Based Online Automatic Targetless LiDAR-Camera Calibration with Iterative and Attention-Driven Post-Refinement [5.069968819561576]
CalibRefineは完全に自動化され、ターゲットレス、オンラインキャリブレーションフレームワークである。
生のLiDAR点雲とカメラ画像を直接処理する。
以上の結果から,頑健なオブジェクトレベルの特徴マッチングと反復的改善と自己監督的注意に基づく改善が組み合わさって,信頼性の高いセンサアライメントを実現することが示唆された。
論文 参考訳(メタデータ) (2025-02-24T20:53:42Z) - Continuous Online Extrinsic Calibration of Fisheye Camera and LiDAR [7.906477322731106]
高レベルの知覚機能を必要とする共通空間参照フレームにカメラとLiDARデータを融合するためには、正確な外部キャリブレーションが必要である。
連続的なオンライン外部キャリブレーションアルゴリズムは、センサーデータのみを使用して、車両の寿命中にカメラ-LiDARキャリブレーションの値を自動更新することができる。
本稿では,一般的な単眼深度推定ネットワークによって提供されるカメラ画像の深度推定と,外部キャリブレーションの最適化指標としてLiDAR点雲の幾何距離の相互情報を用いることを提案する。
論文 参考訳(メタデータ) (2023-06-22T23:16:31Z) - Automated Static Camera Calibration with Intelligent Vehicles [58.908194559319405]
自動ジオレファレンスカメラキャリブレーションのためのロバストキャリブレーション法を提案する。
本手法では, フィルタ/RTK受信機と慣性測定ユニット(IMU)を組み合わせたキャリブレーション車両が必要である。
我々の手法は、インフラと車両の両方で記録された情報と人間との相互作用を一切必要としない。
論文 参考訳(メタデータ) (2023-04-21T08:50:52Z) - LCE-Calib: Automatic LiDAR-Frame/Event Camera Extrinsic Calibration With
A Globally Optimal Solution [10.117923901732743]
LiDARとカメラの組み合わせにより、移動ロボットはマルチモーダルデータで環境を知覚することができる。
従来のフレームカメラは照明条件の変更に敏感で、新しいイベントカメラの導入を動機付けています。
本稿では,LiDARとフレーム/イベントカメラの外部特性をキャリブレーションするためのチェッカーボードによる自動手法を提案する。
論文 参考訳(メタデータ) (2023-03-17T08:07:56Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - Multi-modal 3D Human Pose Estimation with 2D Weak Supervision in
Autonomous Driving [74.74519047735916]
自動運転車(AV)における3次元ポーズ推定(HPE)は,多くの要因において他のユースケースと異なる。
他のユースケース(仮想現実、ゲーム、アニメーションなど)のために収集されたデータは、AVアプリケーションには使用できない可能性がある。
本稿では,この問題をAV設定で緩和するための最初のアプローチの1つを提案する。
論文 参考訳(メタデータ) (2021-12-22T18:57:16Z) - Infrastructure-based Multi-Camera Calibration using Radial Projections [117.22654577367246]
パターンベースのキャリブレーション技術は、カメラの内在を個別にキャリブレーションするために使用することができる。
Infrastucture-based calibration techniqueはSLAMやStructure-from-Motionで事前に構築した3Dマップを用いて外部情報を推定することができる。
本稿では,インフラストラクチャベースのアプローチを用いて,マルチカメラシステムをスクラッチから完全にキャリブレーションすることを提案する。
論文 参考訳(メタデータ) (2020-07-30T09:21:04Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。