論文の概要: YOCO: You Only Calibrate Once for Accurate Extrinsic Parameter in LiDAR-Camera Systems
- arxiv url: http://arxiv.org/abs/2407.18043v1
- Date: Thu, 25 Jul 2024 13:44:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 13:49:09.712970
- Title: YOCO: You Only Calibrate Once for Accurate Extrinsic Parameter in LiDAR-Camera Systems
- Title(参考訳): YOCO:LiDAR-Cameraシステムにおける正確な外部パラメータのキャリブレーションを一度だけ行う
- Authors: Tianle Zeng, Dengke He, Feifan Yan, Meixi He,
- Abstract要約: カメラとLiDARからなるマルチセンサー融合システムでは、正確な外部キャリブレーションがシステムの長期的な安定性と環境の正確な認識に寄与する。
本稿では,LiDARカメラシステムにおいて,対応点登録の必要性を回避するための完全自動外部校正手法を提案する。
- 参考スコア(独自算出の注目度): 0.5999777817331317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In a multi-sensor fusion system composed of cameras and LiDAR, precise extrinsic calibration contributes to the system's long-term stability and accurate perception of the environment. However, methods based on extracting and registering corresponding points still face challenges in terms of automation and precision. This paper proposes a novel fully automatic extrinsic calibration method for LiDAR-camera systems that circumvents the need for corresponding point registration. In our approach, a novel algorithm to extract required LiDAR correspondence point is proposed. This method can effectively filter out irrelevant points by computing the orientation of plane point clouds and extracting points by applying distance- and density-based thresholds. We avoid the need for corresponding point registration by introducing extrinsic parameters between the LiDAR and camera into the projection of extracted points and constructing co-planar constraints. These parameters are then optimized to solve for the extrinsic. We validated our method across multiple sets of LiDAR-camera systems. In synthetic experiments, our method demonstrates superior performance compared to current calibration techniques. Real-world data experiments further confirm the precision and robustness of the proposed algorithm, with average rotation and translation calibration errors between LiDAR and camera of less than 0.05 degree and 0.015m, respectively. This method enables automatic and accurate extrinsic calibration in a single one step, emphasizing the potential of calibration algorithms beyond using corresponding point registration to enhance the automation and precision of LiDAR-camera system calibration.
- Abstract(参考訳): カメラとLiDARからなるマルチセンサー融合システムでは、正確な外部キャリブレーションがシステムの長期的な安定性と環境の正確な認識に寄与する。
しかしながら、対応する点を抽出し、登録する手法は、自動化と精度の観点からも依然として課題に直面している。
本稿では,LiDARカメラシステムにおいて,対応点登録の必要性を回避するための完全自動外部校正手法を提案する。
本稿では,必要なLiDAR対応点を抽出する新しいアルゴリズムを提案する。
この方法は、平面点雲の向きを計算し、距離と密度に基づく閾値を適用して点を抽出することにより、無関係な点を効果的にフィルタリングすることができる。
我々は、抽出された点の投影にLiDARとカメラの間に外部パラメータを導入し、コプラナー制約を構築することで、対応する点登録の必要性を回避する。
これらのパラメータは、外在的な問題の解法に最適化される。
我々は,LiDARカメラシステムの複数セットにまたがって本手法の有効性を検証した。
合成実験では, 現在の校正法と比較して優れた性能を示す。
実世界のデータ実験により提案アルゴリズムの精度とロバスト性がさらに確認され、それぞれ0.05度未満のLiDARとカメラ間の平均回転校正誤差と翻訳校正誤差が0.015mである。
この方法は,LiDARカメラシステムキャリブレーションの自動化と精度を高めるために,対応する点登録以外のキャリブレーションアルゴリズムの可能性を強調し,一つのステップで自動的かつ正確なキャリブレーションを可能にする。
関連論文リスト
- Kalib: Markerless Hand-Eye Calibration with Keypoint Tracking [52.4190876409222]
ハンドアイキャリブレーションでは、カメラとロボット間の変換を推定する。
ディープラーニングの最近の進歩は、マーカーレス技術を提供するが、それらは課題を提示している。
自動的かつ普遍的なマーカーレスハンドアイキャリブレーションパイプラインであるKalibを提案する。
論文 参考訳(メタデータ) (2024-08-20T06:03:40Z) - SPARE: Symmetrized Point-to-Plane Distance for Robust Non-Rigid Registration [76.40993825836222]
本研究では,SPAREを提案する。SPAREは,非剛性登録のための対称化点-平面間距離を用いた新しい定式化である。
提案手法は, 厳密でない登録問題の精度を大幅に向上し, 比較的高い解効率を維持する。
論文 参考訳(メタデータ) (2024-05-30T15:55:04Z) - EdgeCalib: Multi-Frame Weighted Edge Features for Automatic Targetless
LiDAR-Camera Calibration [15.057994140880373]
実世界のシナリオにおけるLiDARとカメラの自動校正のためのエッジベースのアプローチを提案する。
エッジ機能は、様々な環境で広く使われているが、画像と点雲の両方に並び、外在パラメータを決定する。
その結果, 最先端回転精度は0.086deg, 翻訳精度は0.977cmであり, 既存のエッジベースキャリブレーション法よりも精度とロバスト性が高いことがわかった。
論文 参考訳(メタデータ) (2023-10-25T13:27:56Z) - Continuous Online Extrinsic Calibration of Fisheye Camera and LiDAR [7.906477322731106]
高レベルの知覚機能を必要とする共通空間参照フレームにカメラとLiDARデータを融合するためには、正確な外部キャリブレーションが必要である。
連続的なオンライン外部キャリブレーションアルゴリズムは、センサーデータのみを使用して、車両の寿命中にカメラ-LiDARキャリブレーションの値を自動更新することができる。
本稿では,一般的な単眼深度推定ネットワークによって提供されるカメラ画像の深度推定と,外部キャリブレーションの最適化指標としてLiDAR点雲の幾何距離の相互情報を用いることを提案する。
論文 参考訳(メタデータ) (2023-06-22T23:16:31Z) - Automated Static Camera Calibration with Intelligent Vehicles [58.908194559319405]
自動ジオレファレンスカメラキャリブレーションのためのロバストキャリブレーション法を提案する。
本手法では, フィルタ/RTK受信機と慣性測定ユニット(IMU)を組み合わせたキャリブレーション車両が必要である。
我々の手法は、インフラと車両の両方で記録された情報と人間との相互作用を一切必要としない。
論文 参考訳(メタデータ) (2023-04-21T08:50:52Z) - CRLF: Automatic Calibration and Refinement based on Line Feature for
LiDAR and Camera in Road Scenes [16.201111055979453]
道路シーンにおけるライダーとカメラの遠距離パラメータを校正する新しい手法を提案する。
道路の車線やポールなどの静的な直線形状の物体を画像と点群の両方で線状化します。
KITTIと社内データセットに関する広範な実験を行い、定量的および定性的な結果は、当社の方法の堅牢性と正確性を示しています。
論文 参考訳(メタデータ) (2021-03-08T06:02:44Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - ACSC: Automatic Calibration for Non-repetitive Scanning Solid-State
LiDAR and Camera Systems [11.787271829250805]
Solid-State LiDAR(SSL)は、環境から3Dポイントクラウドを低コストで効率的に取得することを可能にする。
非繰り返し走査型SSLとカメラシステムのための完全自動校正法を提案する。
実環境下でのLiDARとカメラセンサの組み合わせについて検討した。
論文 参考訳(メタデータ) (2020-11-17T09:11:28Z) - Accurate Alignment Inspection System for Low-resolution Automotive and
Mobility LiDAR [125.41260574344933]
車両やロボットなどの移動システムにおいて,センサ装着後のLiDARアライメント誤差を正確に推定する検査システムを提案する。
提案手法は, 固定位置における1つのターゲットボードのみを用いて, 水平方向(回転, 傾き, ヨー)とLiDARアタッチメントの水平位置を, 水平方向の精度で推定する。
論文 参考訳(メタデータ) (2020-08-24T17:47:59Z) - Automatic LiDAR Extrinsic Calibration System using Photodetector and
Planar Board for Large-scale Applications [110.32028864986918]
本研究は, PD-target System と呼ばれる光検出器アレイを組み込んだターゲットボードの新たな概念を提案し, ターゲット表面上の対応レーザビームの正確な位置を求める。
提案手法を低分解能LiDARで実験した結果,LiDARオフセットポーズは0.1度と3mmの精度で推定可能であることがわかった。
論文 参考訳(メタデータ) (2020-08-24T16:28:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。