論文の概要: Cal or No Cal? -- Real-Time Miscalibration Detection of LiDAR and Camera Sensors
- arxiv url: http://arxiv.org/abs/2504.01040v1
- Date: Mon, 31 Mar 2025 08:13:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:19:37.780325
- Title: Cal or No Cal? -- Real-Time Miscalibration Detection of LiDAR and Camera Sensors
- Title(参考訳): CalかNo Calか --LiDARとカメラセンサのリアルタイム校正検出
- Authors: Ilir Tahiraj, Jeremialie Swadiryus, Felix Fent, Markus Lienkamp,
- Abstract要約: 安全の観点からは、センサーのキャリブレーションは自動運転の鍵となる。
オンラインキャリブレーションは厳格なリアルタイムとリソースの制約を受ける。
校正パラメータの直接回帰から校正状態のバイナリ分類に焦点を移す誤校正検出フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.8437187555622164
- License:
- Abstract: The goal of extrinsic calibration is the alignment of sensor data to ensure an accurate representation of the surroundings and enable sensor fusion applications. From a safety perspective, sensor calibration is a key enabler of autonomous driving. In the current state of the art, a trend from target-based offline calibration towards targetless online calibration can be observed. However, online calibration is subject to strict real-time and resource constraints which are not met by state-of-the-art methods. This is mainly due to the high number of parameters to estimate, the reliance on geometric features, or the dependence on specific vehicle maneuvers. To meet these requirements and ensure the vehicle's safety at any time, we propose a miscalibration detection framework that shifts the focus from the direct regression of calibration parameters to a binary classification of the calibration state, i.e., calibrated or miscalibrated. Therefore, we propose a contrastive learning approach that compares embedded features in a latent space to classify the calibration state of two different sensor modalities. Moreover, we provide a comprehensive analysis of the feature embeddings and challenging calibration errors that highlight the performance of our approach. As a result, our method outperforms the current state-of-the-art in terms of detection performance, inference time, and resource demand. The code is open source and available on https://github.com/TUMFTM/MiscalibrationDetection.
- Abstract(参考訳): 外部キャリブレーションの目標は、センサーデータのアライメントによって、周囲の正確な表現を保証し、センサフュージョンの応用を可能にすることである。
安全の観点からは、センサーのキャリブレーションは自動運転の鍵となる。
現在の最先端では、ターゲットベースオフラインキャリブレーションからターゲットレスオンラインキャリブレーションへの傾向が観察できる。
しかし、オンラインキャリブレーションは、最先端の手法では満たされない厳格なリアルタイムおよびリソース制約の対象となっている。
これは主に、推定するパラメータの多さ、幾何学的特徴への依存、特定の車両操作への依存によるものである。
これらの要件を満たすために,キャリブレーションパラメータの直接回帰から,キャリブレーション状態のバイナリ分類,すなわちキャリブレーションや誤校正に焦点を移す誤校正検出フレームワークを提案する。
そこで本研究では,2つのセンサモードの校正状態を分類するために,潜在空間における埋め込み特徴を比較するコントラスト学習手法を提案する。
さらに,機能埋め込みを包括的に分析し,キャリブレーションエラーに挑戦し,アプローチの性能を強調した。
その結果,本手法は,検出性能,推測時間,資源需要の観点から,現在の最先端技術よりも優れていた。
コードはオープンソースでhttps://github.com/TUMFTM/MiscalibrationDetectionで公開されている。
関連論文リスト
- UniCal: Unified Neural Sensor Calibration [32.7372115947273]
自動運転車(SDV)には、LiDARとカメラの正確な校正が必要である。
従来のキャリブレーション手法では、制御され構造化されたシーンでキャプチャされたフィデューシャルを利用し、処理を最適化するために対応を計算する。
我々は、複数のLiDARとカメラを備えたSDVを強制的に校正する統合フレームワークUniCalを提案する。
論文 参考訳(メタデータ) (2024-09-27T17:56:04Z) - A re-calibration method for object detection with multi-modal alignment bias in autonomous driving [7.601405124830806]
自律走行における多モード物体検出は、異なるセンサからの補完情報を融合させることにより、大きなブレークスルーを達成した。
実際には、キャリブレーション行列は車両が工場を出る際に固定されるが、振動、バンプ、データラグはキャリブレーションバイアスを引き起こす可能性がある。
我々は,SOTA検出方式EPNet++の実験を行い,キャリブレーションの偏りをわずかに示し,性能を著しく低下させることを示した。
論文 参考訳(メタデータ) (2024-05-27T05:46:37Z) - Towards Certification of Uncertainty Calibration under Adversarial Attacks [96.48317453951418]
攻撃はキャリブレーションを著しく損なう可能性を示し, 対向的摂動下でのキャリブレーションにおける最悪のキャリブレーション境界として認定キャリブレーションを提案する。
我々は,新しいキャリブレーション攻撃を提案し,テクスタディバーショナルキャリブレーショントレーニングによりモデルキャリブレーションを改善する方法を示す。
論文 参考訳(メタデータ) (2024-05-22T18:52:09Z) - CalibFormer: A Transformer-based Automatic LiDAR-Camera Calibration Network [11.602943913324653]
CalibFormerは自動LiDARカメラキャリブレーションのためのエンドツーエンドネットワークである。
高精細度表現を実現するために、複数のカメラ層とLiDAR画像層を集約する。
平均翻訳誤差は0.8751 Mathrmcm$, 平均回転誤差は0.0562 circ$であった。
論文 参考訳(メタデータ) (2023-11-26T08:59:30Z) - Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - Continuous Online Extrinsic Calibration of Fisheye Camera and LiDAR [7.906477322731106]
高レベルの知覚機能を必要とする共通空間参照フレームにカメラとLiDARデータを融合するためには、正確な外部キャリブレーションが必要である。
連続的なオンライン外部キャリブレーションアルゴリズムは、センサーデータのみを使用して、車両の寿命中にカメラ-LiDARキャリブレーションの値を自動更新することができる。
本稿では,一般的な単眼深度推定ネットワークによって提供されるカメラ画像の深度推定と,外部キャリブレーションの最適化指標としてLiDAR点雲の幾何距離の相互情報を用いることを提案する。
論文 参考訳(メタデータ) (2023-06-22T23:16:31Z) - TrajMatch: Towards Automatic Spatio-temporal Calibration for Roadside
LiDARs through Trajectory Matching [12.980324010888664]
我々は,道路沿いのLiDARを時間と空間の両方で自動調整できる最初のシステムであるTrajMatchを提案する。
実験の結果,TrajMatchは空間キャリブレーション誤差が10cm未満であり,時間キャリブレーション誤差が1.5ms未満であることがわかった。
論文 参考訳(メタデータ) (2023-02-04T12:27:01Z) - Localized Calibration: Metrics and Recalibration [133.07044916594361]
完全大域キャリブレーションと完全個別化キャリブレーションのギャップにまたがる細粒度キャリブレーション指標を提案する。
次に,局所再校正法であるLoReを導入し,既存の校正法よりもLCEを改善する。
論文 参考訳(メタデータ) (2021-02-22T07:22:12Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Unsupervised Calibration under Covariate Shift [92.02278658443166]
ドメインシフト下でのキャリブレーションの問題を導入し、それに対処するための重要サンプリングに基づくアプローチを提案する。
実世界のデータセットと合成データセットの両方において,本手法の有効性を評価し検討した。
論文 参考訳(メタデータ) (2020-06-29T21:50:07Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。