論文の概要: End-to-End Lidar-Camera Self-Calibration for Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2304.12412v1
- Date: Mon, 24 Apr 2023 19:44:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 22:55:55.841290
- Title: End-to-End Lidar-Camera Self-Calibration for Autonomous Vehicles
- Title(参考訳): 自動運転車のエンドツーエンドlidarカメラ自己校正
- Authors: Arya Rachman, J\"urgen Seiler, and Andr\'e Kaup
- Abstract要約: CaLiCaはLidarとピンホールカメラのためのエンドツーエンドの自己校正ネットワークである。
我々は1パスの推論で0.028ピクセルの再投影誤差で0.154デグと0.059mの精度を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Autonomous vehicles are equipped with a multi-modal sensor setup to enable
the car to drive safely. The initial calibration of such perception sensors is
a highly matured topic and is routinely done in an automated factory
environment. However, an intriguing question arises on how to maintain the
calibration quality throughout the vehicle's operating duration. Another
challenge is to calibrate multiple sensors jointly to ensure no propagation of
systemic errors. In this paper, we propose CaLiCa, an end-to-end deep
self-calibration network which addresses the automatic calibration problem for
pinhole camera and Lidar. We jointly predict the camera intrinsic parameters
(focal length and distortion) as well as Lidar-Camera extrinsic parameters
(rotation and translation), by regressing feature correlation between the
camera image and the Lidar point cloud. The network is arranged in a
Siamese-twin structure to constrain the network features learning to a mutually
shared feature in both point cloud and camera (Lidar-camera constraint).
Evaluation using KITTI datasets shows that we achieve 0.154 {\deg} and 0.059 m
accuracy with a reprojection error of 0.028 pixel with a single-pass inference.
We also provide an ablative study of how our end-to-end learning architecture
offers lower terminal loss (21% decrease in rotation loss) compared to isolated
calibration
- Abstract(参考訳): 自動運転車には、安全運転を可能にするマルチモーダルセンサーが搭載されている。
このような知覚センサの初期校正は高度に成熟したトピックであり、自動化された工場環境で定期的に行われる。
しかし、興味深い疑問は、車両の運転期間を通してキャリブレーションの品質を維持する方法である。
もうひとつの課題は、複数のセンサを共同で校正することで、システムエラーの伝播を防止できることだ。
本稿では,ピンホールカメラとライダーの自動校正問題に対処する,エンドツーエンドの自己校正ネットワークであるCaLiCaを提案する。
我々は,カメラ画像とLidar点雲の特徴相関を回帰することにより,カメラ内在パラメータ(焦点長と歪み)とLidar-Camera外在パラメータ(回転と変換)を共同で予測する。
ネットワークはsiamese-twin構造に配置され、ネットワークの特徴をポイントクラウドとカメラの両方の共有機能(ライダーカメラの制約)に制限する。
KITTIデータセットを用いて評価した結果,1パスの推測で0.028ピクセルの再投影誤差で0.154 {\deg} と0.059mの精度が得られた。
また,我々のエンドツーエンド学習アーキテクチャが,孤立キャリブレーションに比べて端末損失(回転損失の21%減少)を低く抑える方法についても検討した。
関連論文リスト
- Continuous Online Extrinsic Calibration of Fisheye Camera and LiDAR [7.906477322731106]
高レベルの知覚機能を必要とする共通空間参照フレームにカメラとLiDARデータを融合するためには、正確な外部キャリブレーションが必要である。
連続的なオンライン外部キャリブレーションアルゴリズムは、センサーデータのみを使用して、車両の寿命中にカメラ-LiDARキャリブレーションの値を自動更新することができる。
本稿では,一般的な単眼深度推定ネットワークによって提供されるカメラ画像の深度推定と,外部キャリブレーションの最適化指標としてLiDAR点雲の幾何距離の相互情報を用いることを提案する。
論文 参考訳(メタデータ) (2023-06-22T23:16:31Z) - Automated Static Camera Calibration with Intelligent Vehicles [58.908194559319405]
自動ジオレファレンスカメラキャリブレーションのためのロバストキャリブレーション法を提案する。
本手法では, フィルタ/RTK受信機と慣性測定ユニット(IMU)を組み合わせたキャリブレーション車両が必要である。
我々の手法は、インフラと車両の両方で記録された情報と人間との相互作用を一切必要としない。
論文 参考訳(メタデータ) (2023-04-21T08:50:52Z) - SceneCalib: Automatic Targetless Calibration of Cameras and Lidars in
Autonomous Driving [10.517099201352414]
SceneCalibは、複数のカメラとライダーセンサーを含むシステムにおいて、外在パラメータと内在パラメータを同時に自己校正する新しい方法である。
我々は,カメラ画像とライダー点雲との明示的な対応を必要としない完全自動方式で問題を解決する。
論文 参考訳(メタデータ) (2023-04-11T23:02:16Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Unsupervised Depth Completion with Calibrated Backprojection Layers [79.35651668390496]
画像とスパース点雲から深度を推定するディープニューラルネットワークアーキテクチャを提案する。
LIDARや他のレンジセンサーから得られるビデオストリームとそれに対応するスパース点雲と、カメラの固有のキャリブレーションパラメータを用いてトレーニングする。
推論時に、トレーニングに用いるものと異なるカメラの校正を、スパース点雲と1つの画像とともにネットワークへの入力として行う。
論文 参考訳(メタデータ) (2021-08-24T05:41:59Z) - Lidar and Camera Self-Calibration using CostVolume Network [3.793450497896671]
LiDARとカメラ間のパラメータを直接レグレッシブする代わりに、初期キャリブレーションから地上の真実へのデキャリブレーション偏差を予測します。
提案手法は, 平均絶対校正誤差が0.297cm, 回転誤差が0.017degであり, 校正誤差が1.5m, 20degであった。
論文 参考訳(メタデータ) (2020-12-27T09:41:45Z) - Infrastructure-based Multi-Camera Calibration using Radial Projections [117.22654577367246]
パターンベースのキャリブレーション技術は、カメラの内在を個別にキャリブレーションするために使用することができる。
Infrastucture-based calibration techniqueはSLAMやStructure-from-Motionで事前に構築した3Dマップを用いて外部情報を推定することができる。
本稿では,インフラストラクチャベースのアプローチを用いて,マルチカメラシステムをスクラッチから完全にキャリブレーションすることを提案する。
論文 参考訳(メタデータ) (2020-07-30T09:21:04Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Calibrating Deep Neural Networks using Focal Loss [77.92765139898906]
ミススキャリブレーション(Miscalibration)は、モデルの信頼性と正しさのミスマッチである。
焦点損失は、既に十分に校正されたモデルを学ぶことができることを示す。
ほぼすべてのケースにおいて精度を損なうことなく,最先端のキャリブレーションを達成できることを示す。
論文 参考訳(メタデータ) (2020-02-21T17:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。