論文の概要: TEScalib: Targetless Extrinsic Self-Calibration of LiDAR and Stereo
Camera for Automated Driving Vehicles with Uncertainty Analysis
- arxiv url: http://arxiv.org/abs/2202.13847v1
- Date: Mon, 28 Feb 2022 15:04:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 21:30:32.757008
- Title: TEScalib: Targetless Extrinsic Self-Calibration of LiDAR and Stereo
Camera for Automated Driving Vehicles with Uncertainty Analysis
- Title(参考訳): TEScalib:不確実性解析による自動走行車用LiDARとステレオカメラの目標外自己校正
- Authors: Haohao Hu, Fengze Han, Frank Bieder, Jan-Hendrik Pauls and Christoph
Stiller
- Abstract要約: TEScalibは、LiDARとステレオカメラの新しい外在的自己校正手法である。
周囲の環境の幾何学的および測光的情報を使用し、自動走行車両のキャリブレーション対象を含まない。
KITTIデータセットで評価した手法は非常に有望な結果が得られる。
- 参考スコア(独自算出の注目度): 4.616329048951671
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present TEScalib, a novel extrinsic self-calibration
approach of LiDAR and stereo camera using the geometric and photometric
information of surrounding environments without any calibration targets for
automated driving vehicles. Since LiDAR and stereo camera are widely used for
sensor data fusion on automated driving vehicles, their extrinsic calibration
is highly important. However, most of the LiDAR and stereo camera calibration
approaches are mainly target-based and therefore time consuming. Even the newly
developed targetless approaches in last years are either inaccurate or
unsuitable for driving platforms.
To address those problems, we introduce TEScalib. By applying a 3D mesh
reconstruction-based point cloud registration, the geometric information is
used to estimate the LiDAR to stereo camera extrinsic parameters accurately and
robustly. To calibrate the stereo camera, a photometric error function is
builded and the LiDAR depth is involved to transform key points from one camera
to another. During driving, these two parts are processed iteratively. Besides
that, we also propose an uncertainty analysis for reflecting the reliability of
the estimated extrinsic parameters. Our TEScalib approach evaluated on the
KITTI dataset achieves very promising results.
- Abstract(参考訳): 本稿では,自動走行車両のキャリブレーション対象のない周囲環境の幾何学的・測光的情報を用いて,LiDARとステレオカメラの外部自己校正手法であるTEScalibを提案する。
LiDARとステレオカメラは自動走行車のセンサーデータ融合に広く利用されているため、その外装キャリブレーションは非常に重要である。
しかし、LiDARとステレオカメラのキャリブレーションのアプローチのほとんどは主にターゲットベースであり、そのため時間を要する。
過去数年間に新しく開発された目標のないアプローチでさえ、運転プラットフォームに不正確か不適当である。
これらの問題に対処するために、TEScalibを紹介する。
3次元メッシュ再構成に基づくポイントクラウド登録を適用することで、幾何情報を用いて、lidarをステレオカメラの余分なパラメータに正確かつロバストに推定する。
ステレオカメラを校正するためには、測光誤差関数を構築し、LiDAR深度は、あるカメラから別のカメラへキーポイントを変換する。
運転中、この2つの部品は反復的に処理される。
さらに,推定外因性パラメータの信頼性を反映した不確実性解析も提案する。
KITTIデータセットで評価したTEScalibアプローチは非常に有望な結果を得た。
関連論文リスト
- CalibFormer: A Transformer-based Automatic LiDAR-Camera Calibration Network [11.602943913324653]
CalibFormerは自動LiDARカメラキャリブレーションのためのエンドツーエンドネットワークである。
高精細度表現を実現するために、複数のカメラ層とLiDAR画像層を集約する。
平均翻訳誤差は0.8751 Mathrmcm$, 平均回転誤差は0.0562 circ$であった。
論文 参考訳(メタデータ) (2023-11-26T08:59:30Z) - From Chaos to Calibration: A Geometric Mutual Information Approach to
Target-Free Camera LiDAR Extrinsic Calibration [4.378156825150505]
そこで本研究では,根拠となる真理学習データを必要としない目標外キャリブレーションアルゴリズムを提案する。
我々は,KITTI と KITTI-360 の魚眼データセットを用いた改良を行った。
論文 参考訳(メタデータ) (2023-11-03T13:30:31Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - Continuous Online Extrinsic Calibration of Fisheye Camera and LiDAR [7.906477322731106]
高レベルの知覚機能を必要とする共通空間参照フレームにカメラとLiDARデータを融合するためには、正確な外部キャリブレーションが必要である。
連続的なオンライン外部キャリブレーションアルゴリズムは、センサーデータのみを使用して、車両の寿命中にカメラ-LiDARキャリブレーションの値を自動更新することができる。
本稿では,一般的な単眼深度推定ネットワークによって提供されるカメラ画像の深度推定と,外部キャリブレーションの最適化指標としてLiDAR点雲の幾何距離の相互情報を用いることを提案する。
論文 参考訳(メタデータ) (2023-06-22T23:16:31Z) - Online LiDAR-Camera Extrinsic Parameters Self-checking [12.067216966113708]
本稿では,2進分類ネットワークを導入することにより,外部パラメータが適切に校正されているかどうかを判断する自己チェックアルゴリズムを提案する。
コードはGithubのWebサイトでhttps://github.com/OpenCalib/LiDAR2camera_self-checkで公開されている。
論文 参考訳(メタデータ) (2022-10-19T13:17:48Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - CRLF: Automatic Calibration and Refinement based on Line Feature for
LiDAR and Camera in Road Scenes [16.201111055979453]
道路シーンにおけるライダーとカメラの遠距離パラメータを校正する新しい手法を提案する。
道路の車線やポールなどの静的な直線形状の物体を画像と点群の両方で線状化します。
KITTIと社内データセットに関する広範な実験を行い、定量的および定性的な結果は、当社の方法の堅牢性と正確性を示しています。
論文 参考訳(メタデータ) (2021-03-08T06:02:44Z) - Infrastructure-based Multi-Camera Calibration using Radial Projections [117.22654577367246]
パターンベースのキャリブレーション技術は、カメラの内在を個別にキャリブレーションするために使用することができる。
Infrastucture-based calibration techniqueはSLAMやStructure-from-Motionで事前に構築した3Dマップを用いて外部情報を推定することができる。
本稿では,インフラストラクチャベースのアプローチを用いて,マルチカメラシステムをスクラッチから完全にキャリブレーションすることを提案する。
論文 参考訳(メタデータ) (2020-07-30T09:21:04Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。