論文の概要: CaLiV: LiDAR-to-Vehicle Calibration of Arbitrary Sensor Setups via Object Reconstruction
- arxiv url: http://arxiv.org/abs/2504.01987v1
- Date: Mon, 31 Mar 2025 08:08:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:55:26.389452
- Title: CaLiV: LiDAR-to-Vehicle Calibration of Arbitrary Sensor Setups via Object Reconstruction
- Title(参考訳): CaLiV:LiDAR-to-Vehicle Calibration of Arbitrary Sensor Setups through Object Reconstruction (特集:バイオサイバネティックスとバイオサイバネティックス)
- Authors: Ilir Tahiraj, Markus Edinger, Dominik Kulmer, Markus Lienkamp,
- Abstract要約: 自律システムでは、ダイナミック環境における安全で効率的なナビゲーションにはセンサキャリブレーションが不可欠である。
既存のLiDARキャリブレーション法の多くは、重なり合う視野を必要とするが、外部センサーデバイスを使ったり、機能豊富な環境を仮定するものもある。
本研究では,CaLiVと呼ばれるマルチLiDARシステムの外部センサ・センサ・センサ・バイヒクルキャリブレーションのための新しいターゲットベース手法を提案する。
このアルゴリズムは、重複しないFoVや任意のキャリブレーションターゲットに対して機能し、外部センサーデバイスを必要としない。
- 参考スコア(独自算出の注目度): 0.8437187555622164
- License:
- Abstract: In autonomous systems, sensor calibration is essential for a safe and efficient navigation in dynamic environments. Accurate calibration is a prerequisite for reliable perception and planning tasks such as object detection and obstacle avoidance. Many existing LiDAR calibration methods require overlapping fields of view, while others use external sensing devices or postulate a feature-rich environment. In addition, Sensor-to-Vehicle calibration is not supported by the vast majority of calibration algorithms. In this work, we propose a novel target-based technique for extrinsic Sensor-to-Sensor and Sensor-to-Vehicle calibration of multi-LiDAR systems called CaLiV. This algorithm works for non-overlapping FoVs, as well as arbitrary calibration targets, and does not require any external sensing devices. First, we apply motion to produce FoV overlaps and utilize a simple unscented Kalman filter to obtain vehicle poses. Then, we use the Gaussian mixture model-based registration framework GMMCalib to align the point clouds in a common calibration frame. Finally, we reduce the task of recovering the sensor extrinsics to a minimization problem. We show that both translational and rotational Sensor-to-Sensor errors can be solved accurately by our method. In addition, all Sensor-to-Vehicle rotation angles can also be calibrated with high accuracy. We validate the simulation results in real-world experiments. The code is open source and available on https://github.com/TUMFTM/CaLiV.
- Abstract(参考訳): 自律システムでは、ダイナミック環境における安全で効率的なナビゲーションにはセンサキャリブレーションが不可欠である。
正確な校正は、物体検出や障害物回避といった信頼性の高い認識と計画作業の前提条件である。
既存のLiDARキャリブレーション法の多くは、重なり合う視野を必要とするが、外部センサーデバイスを使ったり、機能豊富な環境を仮定するものもある。
さらに、センサ・ツー・ビークル・キャリブレーションは、ほとんどのキャリブレーションアルゴリズムではサポートされない。
本研究では,CaLiVと呼ばれるマルチLiDARシステムの外部センサ・センサ・センサ・バイヒクルキャリブレーションのための新しいターゲットベース手法を提案する。
このアルゴリズムは、重複しないFoVや任意のキャリブレーションターゲットに対して機能し、外部センサーデバイスを必要としない。
まず,FoV重なりの合成に動きを適用し,単純なカルマンフィルタを用いて車両のポーズを求める。
次に、ガウス混合モデルに基づく登録フレームワークGMMCalibを用いて、共通校正フレーム内の点雲を整列させる。
最後に,センサの外部情報を最小化問題に復元する作業を削減する。
本手法により, トランスレーショナルおよび回転型センサ・センサ・センサの誤差を正確に解けることを示す。
さらに、すべてのセンサ・ツー・ビークルの回転角を高精度で校正することもできる。
実世界の実験でシミュレーション結果を検証した。
コードはオープンソースでhttps://github.com/TUMFTM/CaLiVで公開されている。
関連論文リスト
- UniCal: Unified Neural Sensor Calibration [32.7372115947273]
自動運転車(SDV)には、LiDARとカメラの正確な校正が必要である。
従来のキャリブレーション手法では、制御され構造化されたシーンでキャプチャされたフィデューシャルを利用し、処理を最適化するために対応を計算する。
我々は、複数のLiDARとカメラを備えたSDVを強制的に校正する統合フレームワークUniCalを提案する。
論文 参考訳(メタデータ) (2024-09-27T17:56:04Z) - Kalib: Easy Hand-Eye Calibration with Reference Point Tracking [52.4190876409222]
カリブ (Kalib) は、視覚基礎モデルの一般化性を利用して課題を克服する手眼自動校正法である。
校正中は、ロボットの後ろの空間内のカメラ座標3D座標に運動基準点を追跡する。
Kalibのユーザフレンドリな設計と最小限のセットアップ要件により、非構造化環境での継続的操作のソリューションとなり得る。
論文 参考訳(メタデータ) (2024-08-20T06:03:40Z) - Learning to Make Keypoints Sub-Pixel Accurate [80.55676599677824]
本研究は,2次元局所特徴の検出におけるサブピクセル精度の課題に対処する。
本稿では,検出された特徴に対するオフセットベクトルを学習することにより,サブピクセル精度で検出器を拡張できる新しいネットワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T12:39:56Z) - SOAC: Spatio-Temporal Overlap-Aware Multi-Sensor Calibration using Neural Radiance Fields [10.958143040692141]
自律運転のような急速に進化する領域では、動作精度と安定性を確保するために、異なるモードの複数のセンサーを使用することが不可欠である。
各センサが提供した情報を単一の共通フレームで正確に活用するためには、これらのセンサを正確に校正することが不可欠である。
我々は、共通の表現において異なるモダリティを表現するために、ニューラルラジアンス場(Neural Radiance Fields)の能力を利用する。
論文 参考訳(メタデータ) (2023-11-27T13:25:47Z) - Continuous Target-free Extrinsic Calibration of a Multi-Sensor System
from a Sequence of Static Viewpoints [0.0]
モバイルロボットアプリケーションは、プラットフォーム上の個々のセンサーの幾何学的位置に関する正確な情報を必要とする。
誤校正パラメータは、典型的なロボット推定タスクに悪影響を及ぼす。
本稿では,ロボットの動作中にキャリブレーションパラメータを連続的に推定する手法を提案する。
論文 参考訳(メタデータ) (2022-07-08T09:36:17Z) - CROON: Automatic Multi-LiDAR Calibration and Refinement Method in Road
Scene [15.054452813705112]
CROON(AutomatiC multi-LiDAR CalibratiOn and Refinement method in rOad sceNe)は、粗さと精細度校正を含む2段階法である。
実世界のデータセットとシミュレーションデータセットの結果から,本手法の信頼性と精度が示された。
論文 参考訳(メタデータ) (2022-03-07T07:36:31Z) - Real-time detection of uncalibrated sensors using Neural Networks [62.997667081978825]
オンライン学習に基づく温度・湿度・圧力センサの非校正検出装置を開発した。
このソリューションはニューラルネットワークをメインコンポーネントとして統合し、校正条件下でのセンサーの動作から学習する。
その結果, 提案手法は, 偏差値0.25度, 1% RH, 1.5Paの偏差をそれぞれ検出できることがわかった。
論文 参考訳(メタデータ) (2021-02-02T15:44:39Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Deep Soft Procrustes for Markerless Volumetric Sensor Alignment [81.13055566952221]
本研究では、より堅牢なマルチセンサ空間アライメントを実現するために、マーカーレスデータ駆動対応推定を改善する。
我々は、幾何学的制約を終末的に典型的なセグメンテーションベースモデルに組み込み、対象のポーズ推定タスクと中間密な分類タスクをブリッジする。
実験により,マーカーベースの手法で同様の結果が得られ,マーカーレス手法よりも優れ,またキャリブレーション構造のポーズ変動にも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-03-23T10:51:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。