論文の概要: LCE-Calib: Automatic LiDAR-Frame/Event Camera Extrinsic Calibration With
A Globally Optimal Solution
- arxiv url: http://arxiv.org/abs/2303.09825v1
- Date: Fri, 17 Mar 2023 08:07:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 15:23:04.589623
- Title: LCE-Calib: Automatic LiDAR-Frame/Event Camera Extrinsic Calibration With
A Globally Optimal Solution
- Title(参考訳): LCE-Calib: グローバル最適解を用いたLiDARフレーム/イベントカメラの外部校正
- Authors: Jianhao Jiao, Feiyi Chen, Hexiang Wei, Jin Wu, Ming Liu
- Abstract要約: LiDARとカメラの組み合わせにより、移動ロボットはマルチモーダルデータで環境を知覚することができる。
従来のフレームカメラは照明条件の変更に敏感で、新しいイベントカメラの導入を動機付けています。
本稿では,LiDARとフレーム/イベントカメラの外部特性をキャリブレーションするためのチェッカーボードによる自動手法を提案する。
- 参考スコア(独自算出の注目度): 10.117923901732743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The combination of LiDARs and cameras enables a mobile robot to perceive
environments with multi-modal data, becoming a key factor in achieving robust
perception. Traditional frame cameras are sensitive to changing illumination
conditions, motivating us to introduce novel event cameras to make LiDAR-camera
fusion more complete and robust. However, to jointly exploit these sensors, the
challenging extrinsic calibration problem should be addressed. This paper
proposes an automatic checkerboard-based approach to calibrate extrinsics
between a LiDAR and a frame/event camera, where four contributions are
presented. Firstly, we present an automatic feature extraction and checkerboard
tracking method from LiDAR's point clouds. Secondly, we reconstruct realistic
frame images from event streams, applying traditional corner detectors to event
cameras. Thirdly, we propose an initialization-refinement procedure to estimate
extrinsics using point-to-plane and point-to-line constraints in a
coarse-to-fine manner. Fourthly, we introduce a unified and globally optimal
solution to address two optimization problems in calibration. Our approach has
been validated with extensive experiments on 19 simulated and real-world
datasets and outperforms the state-of-the-art.
- Abstract(参考訳): LiDARとカメラの組み合わせにより、移動ロボットはマルチモーダルデータで環境を知覚し、堅牢な知覚を達成する上で重要な要素となる。
従来のフレームカメラは照明条件の変更に敏感で、LiDARカメラの融合をより完全かつ堅牢にするための新しいイベントカメラの導入を動機付けています。
しかし,これらのセンサを共同利用するには,外因性キャリブレーションの問題に対処する必要がある。
本稿では,LiDARとフレーム/イベントカメラの外部特性をキャリブレーションするためのチェッカーボードによる自動手法を提案する。
まず,LiDARの点群から特徴抽出とチェッカーボードの自動追跡手法を提案する。
第2に,イベントストリームから現実的なフレームイメージを再構成し,従来のコーナー検出器をイベントカメラに適用する。
第3に, 平面間および直線間制約を粗い方法で推定するための初期化補正手法を提案する。
第4に,キャリブレーションにおける2つの最適化問題に対処するために,統一的かつグローバルに最適解を提案する。
このアプローチは、19のシミュレーションおよび実世界のデータセットに関する広範囲な実験によって検証され、最先端よりも優れています。
関連論文リスト
- YOCO: You Only Calibrate Once for Accurate Extrinsic Parameter in LiDAR-Camera Systems [0.5999777817331317]
カメラとLiDARからなるマルチセンサー融合システムでは、正確な外部キャリブレーションがシステムの長期的な安定性と環境の正確な認識に寄与する。
本稿では,LiDARカメラシステムにおいて,対応点登録の必要性を回避するための完全自動外部校正手法を提案する。
論文 参考訳(メタデータ) (2024-07-25T13:44:49Z) - CMRNext: Camera to LiDAR Matching in the Wild for Localization and Extrinsic Calibration [9.693729708337125]
CMRNextはカメラ-LIDARマッチングの新しいアプローチであり、センサー固有のパラメータとは独立しており、一般化可能であり、野生で使用することができる。
3つの公開データセットと3つの社内ロボットを含む6つの異なるロボットプラットフォーム上でCMRNextを広範囲に評価した。
論文 参考訳(メタデータ) (2024-01-31T19:14:12Z) - From Chaos to Calibration: A Geometric Mutual Information Approach to
Target-Free Camera LiDAR Extrinsic Calibration [4.378156825150505]
そこで本研究では,根拠となる真理学習データを必要としない目標外キャリブレーションアルゴリズムを提案する。
我々は,KITTI と KITTI-360 の魚眼データセットを用いた改良を行った。
論文 参考訳(メタデータ) (2023-11-03T13:30:31Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - LIF-Seg: LiDAR and Camera Image Fusion for 3D LiDAR Semantic
Segmentation [78.74202673902303]
本稿では,LiDAR分割のための粗大なLiDARとカメラフュージョンベースネットワーク(LIF-Seg)を提案する。
提案手法は,画像の文脈情報を完全に活用し,単純だが効果的な早期融合戦略を導入する。
これら2つのコンポーネントの協力により、効果的なカメラ-LiDAR融合が成功する。
論文 参考訳(メタデータ) (2021-08-17T08:53:11Z) - How to Calibrate Your Event Camera [58.80418612800161]
画像再構成を用いた汎用イベントカメラキャリブレーションフレームワークを提案する。
ニューラルネットワークに基づく画像再構成は,イベントカメラの内在的・外在的キャリブレーションに適していることを示す。
論文 参考訳(メタデータ) (2021-05-26T07:06:58Z) - CRLF: Automatic Calibration and Refinement based on Line Feature for
LiDAR and Camera in Road Scenes [16.201111055979453]
道路シーンにおけるライダーとカメラの遠距離パラメータを校正する新しい手法を提案する。
道路の車線やポールなどの静的な直線形状の物体を画像と点群の両方で線状化します。
KITTIと社内データセットに関する広範な実験を行い、定量的および定性的な結果は、当社の方法の堅牢性と正確性を示しています。
論文 参考訳(メタデータ) (2021-03-08T06:02:44Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Infrastructure-based Multi-Camera Calibration using Radial Projections [117.22654577367246]
パターンベースのキャリブレーション技術は、カメラの内在を個別にキャリブレーションするために使用することができる。
Infrastucture-based calibration techniqueはSLAMやStructure-from-Motionで事前に構築した3Dマップを用いて外部情報を推定することができる。
本稿では,インフラストラクチャベースのアプローチを用いて,マルチカメラシステムをスクラッチから完全にキャリブレーションすることを提案する。
論文 参考訳(メタデータ) (2020-07-30T09:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。