論文の概要: Continuous Online Extrinsic Calibration of Fisheye Camera and LiDAR
- arxiv url: http://arxiv.org/abs/2306.13240v1
- Date: Thu, 22 Jun 2023 23:16:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-26 13:55:05.514520
- Title: Continuous Online Extrinsic Calibration of Fisheye Camera and LiDAR
- Title(参考訳): 魚眼カメラとライダーの連続オンラインextrinsic calibration
- Authors: Jack Borer, Jeremy Tschirner, Florian \"Olsner, Stefan Milz
- Abstract要約: 高レベルの知覚機能を必要とする共通空間参照フレームにカメラとLiDARデータを融合するためには、正確な外部キャリブレーションが必要である。
連続的なオンライン外部キャリブレーションアルゴリズムは、センサーデータのみを使用して、車両の寿命中にカメラ-LiDARキャリブレーションの値を自動更新することができる。
本稿では,一般的な単眼深度推定ネットワークによって提供されるカメラ画像の深度推定と,外部キャリブレーションの最適化指標としてLiDAR点雲の幾何距離の相互情報を用いることを提案する。
- 参考スコア(独自算出の注目度): 7.906477322731106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated driving systems use multi-modal sensor suites to ensure the
reliable, redundant and robust perception of the operating domain, for example
camera and LiDAR. An accurate extrinsic calibration is required to fuse the
camera and LiDAR data into a common spatial reference frame required by
high-level perception functions. Over the life of the vehicle the value of the
extrinsic calibration can change due physical disturbances, introducing an
error into the high-level perception functions. Therefore there is a need for
continuous online extrinsic calibration algorithms which can automatically
update the value of the camera-LiDAR calibration during the life of the vehicle
using only sensor data.
We propose using mutual information between the camera image's depth
estimate, provided by commonly available monocular depth estimation networks,
and the LiDAR pointcloud's geometric distance as a optimization metric for
extrinsic calibration. Our method requires no calibration target, no ground
truth training data and no expensive offline optimization. We demonstrate our
algorithm's accuracy, precision, speed and self-diagnosis capability on the
KITTI-360 data set.
- Abstract(参考訳): 自動駆動システムはマルチモーダルセンサースイートを使用して、カメラやLiDARなどの動作領域の信頼性、冗長性、堅牢性を保証する。
高レベルの知覚機能を必要とする共通空間参照フレームにカメラとLiDARデータを融合するために、正確な外部キャリブレーションが必要である。
車両の寿命を通じて、外因性キャリブレーションの値は物理的障害によって変化し、高いレベルの知覚関数に誤差をもたらす。
そのため、センサデータのみを使用して、車両の寿命中にカメラ-LiDARキャリブレーションの値を自動更新するオンライン外部キャリブレーションアルゴリズムが必要である。
本稿では,一般的な単眼深度推定ネットワークによって提供されるカメラ画像の深度推定と,外部校正の最適化指標としてLiDAR点雲の幾何距離との相互情報を用いた。
本手法では,キャリブレーション対象が不要で,真理学習データも不要で,オフライン最適化に費用がかかる。
KITTI-360データセット上で,アルゴリズムの精度,精度,速度,自己診断能力を示す。
関連論文リスト
- UniCal: Unified Neural Sensor Calibration [32.7372115947273]
自動運転車(SDV)には、LiDARとカメラの正確な校正が必要である。
従来のキャリブレーション手法では、制御され構造化されたシーンでキャプチャされたフィデューシャルを利用し、処理を最適化するために対応を計算する。
我々は、複数のLiDARとカメラを備えたSDVを強制的に校正する統合フレームワークUniCalを提案する。
論文 参考訳(メタデータ) (2024-09-27T17:56:04Z) - YOCO: You Only Calibrate Once for Accurate Extrinsic Parameter in LiDAR-Camera Systems [0.5999777817331317]
カメラとLiDARからなるマルチセンサー融合システムでは、正確な外部キャリブレーションがシステムの長期的な安定性と環境の正確な認識に寄与する。
本稿では,LiDARカメラシステムにおいて,対応点登録の必要性を回避するための完全自動外部校正手法を提案する。
論文 参考訳(メタデータ) (2024-07-25T13:44:49Z) - From Chaos to Calibration: A Geometric Mutual Information Approach to
Target-Free Camera LiDAR Extrinsic Calibration [4.378156825150505]
そこで本研究では,根拠となる真理学習データを必要としない目標外キャリブレーションアルゴリズムを提案する。
我々は,KITTI と KITTI-360 の魚眼データセットを用いた改良を行った。
論文 参考訳(メタデータ) (2023-11-03T13:30:31Z) - Automated Automotive Radar Calibration With Intelligent Vehicles [73.15674960230625]
本稿では,自動車用レーダセンサの自動校正手法を提案する。
本手法では, 車両の外部改造を必要とせず, 自動走行車から得られる位置情報を利用する。
実地試験場からのデータを評価した結果,インフラセンサを自動で正確に校正できることが判明した。
論文 参考訳(メタデータ) (2023-06-23T07:01:10Z) - Automated Static Camera Calibration with Intelligent Vehicles [58.908194559319405]
自動ジオレファレンスカメラキャリブレーションのためのロバストキャリブレーション法を提案する。
本手法では, フィルタ/RTK受信機と慣性測定ユニット(IMU)を組み合わせたキャリブレーション車両が必要である。
我々の手法は、インフラと車両の両方で記録された情報と人間との相互作用を一切必要としない。
論文 参考訳(メタデータ) (2023-04-21T08:50:52Z) - TrajMatch: Towards Automatic Spatio-temporal Calibration for Roadside
LiDARs through Trajectory Matching [12.980324010888664]
我々は,道路沿いのLiDARを時間と空間の両方で自動調整できる最初のシステムであるTrajMatchを提案する。
実験の結果,TrajMatchは空間キャリブレーション誤差が10cm未満であり,時間キャリブレーション誤差が1.5ms未満であることがわかった。
論文 参考訳(メタデータ) (2023-02-04T12:27:01Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - CRLF: Automatic Calibration and Refinement based on Line Feature for
LiDAR and Camera in Road Scenes [16.201111055979453]
道路シーンにおけるライダーとカメラの遠距離パラメータを校正する新しい手法を提案する。
道路の車線やポールなどの静的な直線形状の物体を画像と点群の両方で線状化します。
KITTIと社内データセットに関する広範な実験を行い、定量的および定性的な結果は、当社の方法の堅牢性と正確性を示しています。
論文 参考訳(メタデータ) (2021-03-08T06:02:44Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Accurate Alignment Inspection System for Low-resolution Automotive and
Mobility LiDAR [125.41260574344933]
車両やロボットなどの移動システムにおいて,センサ装着後のLiDARアライメント誤差を正確に推定する検査システムを提案する。
提案手法は, 固定位置における1つのターゲットボードのみを用いて, 水平方向(回転, 傾き, ヨー)とLiDARアタッチメントの水平位置を, 水平方向の精度で推定する。
論文 参考訳(メタデータ) (2020-08-24T17:47:59Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。