論文の概要: From Chaos to Calibration: A Geometric Mutual Information Approach to
Target-Free Camera LiDAR Extrinsic Calibration
- arxiv url: http://arxiv.org/abs/2311.01905v1
- Date: Fri, 3 Nov 2023 13:30:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 14:11:07.474829
- Title: From Chaos to Calibration: A Geometric Mutual Information Approach to
Target-Free Camera LiDAR Extrinsic Calibration
- Title(参考訳): カオスからキャリブレーションへ:ターゲットフリーカメラlidar-extrinsic calibrationへの幾何学的相互情報アプローチ
- Authors: Jack Borer, Jeremy Tschirner, Florian \"Olsner, Stefan Milz
- Abstract要約: そこで本研究では,根拠となる真理学習データを必要としない目標外キャリブレーションアルゴリズムを提案する。
我々は,KITTI と KITTI-360 の魚眼データセットを用いた改良を行った。
- 参考スコア(独自算出の注目度): 4.378156825150505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sensor fusion is vital for the safe and robust operation of autonomous
vehicles. Accurate extrinsic sensor to sensor calibration is necessary to
accurately fuse multiple sensor's data in a common spatial reference frame. In
this paper, we propose a target free extrinsic calibration algorithm that
requires no ground truth training data, artificially constrained motion
trajectories, hand engineered features or offline optimization and that is
accurate, precise and extremely robust to initialization error.
Most current research on online camera-LiDAR extrinsic calibration requires
ground truth training data which is impossible to capture at scale. We revisit
analytical mutual information based methods first proposed in 2012 and
demonstrate that geometric features provide a robust information metric for
camera-LiDAR extrinsic calibration. We demonstrate our proposed improvement
using the KITTI and KITTI-360 fisheye data set.
- Abstract(参考訳): センサー融合は自動運転車の安全で堅牢な運用に不可欠である。
複数のセンサのデータを共通空間参照フレームで正確に融合させるには,センサキャリブレーションに対する正確な外部センサが必要である。
本稿では,真理トレーニングデータや人為的制約付きモーショントラジェクタ,手工学的特徴量,オフライン最適化を必要とせず,精度,精度,精度,初期化誤差に対して極めて頑健な目標自由外部キャリブレーションアルゴリズムを提案する。
オンラインカメラ-LiDARの外的キャリブレーションに関する最近の研究は、大規模な撮影が不可能な地上の真実のトレーニングデータを必要とする。
2012年に初めて提案された分析的相互情報ベース手法を再検討し,幾何学的特徴がカメラ・ライダーの極端校正にロバストな情報指標を提供することを示した。
我々は,KITTI と KITTI-360 の魚眼データセットを用いた改良を行った。
関連論文リスト
- UniCal: Unified Neural Sensor Calibration [32.7372115947273]
自動運転車(SDV)には、LiDARとカメラの正確な校正が必要である。
従来のキャリブレーション手法では、制御され構造化されたシーンでキャプチャされたフィデューシャルを利用し、処理を最適化するために対応を計算する。
我々は、複数のLiDARとカメラを備えたSDVを強制的に校正する統合フレームワークUniCalを提案する。
論文 参考訳(メタデータ) (2024-09-27T17:56:04Z) - Kalib: Markerless Hand-Eye Calibration with Keypoint Tracking [52.4190876409222]
ハンドアイキャリブレーションでは、カメラとロボット間の変換を推定する。
ディープラーニングの最近の進歩は、マーカーレス技術を提供するが、それらは課題を提示している。
自動的かつ普遍的なマーカーレスハンドアイキャリブレーションパイプラインであるKalibを提案する。
論文 参考訳(メタデータ) (2024-08-20T06:03:40Z) - YOCO: You Only Calibrate Once for Accurate Extrinsic Parameter in LiDAR-Camera Systems [0.5999777817331317]
カメラとLiDARからなるマルチセンサー融合システムでは、正確な外部キャリブレーションがシステムの長期的な安定性と環境の正確な認識に寄与する。
本稿では,LiDARカメラシステムにおいて,対応点登録の必要性を回避するための完全自動外部校正手法を提案する。
論文 参考訳(メタデータ) (2024-07-25T13:44:49Z) - W-HMR: Monocular Human Mesh Recovery in World Space with Weak-Supervised Calibration [57.37135310143126]
モノクロ画像からの3次元運動回復のための従来の手法は、カメラ座標に依存するため、しばしば不足する。
W-HMRは、身体の歪み情報に基づいて「適切な」焦点長を予測する弱教師付き校正法である。
また,世界空間における可視的再構築のために,身体の向きを補正する OrientCorrect モジュールを提案する。
論文 参考訳(メタデータ) (2023-11-29T09:02:07Z) - Continuous Online Extrinsic Calibration of Fisheye Camera and LiDAR [7.906477322731106]
高レベルの知覚機能を必要とする共通空間参照フレームにカメラとLiDARデータを融合するためには、正確な外部キャリブレーションが必要である。
連続的なオンライン外部キャリブレーションアルゴリズムは、センサーデータのみを使用して、車両の寿命中にカメラ-LiDARキャリブレーションの値を自動更新することができる。
本稿では,一般的な単眼深度推定ネットワークによって提供されるカメラ画像の深度推定と,外部キャリブレーションの最適化指標としてLiDAR点雲の幾何距離の相互情報を用いることを提案する。
論文 参考訳(メタデータ) (2023-06-22T23:16:31Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - Automated Static Camera Calibration with Intelligent Vehicles [58.908194559319405]
自動ジオレファレンスカメラキャリブレーションのためのロバストキャリブレーション法を提案する。
本手法では, フィルタ/RTK受信機と慣性測定ユニット(IMU)を組み合わせたキャリブレーション車両が必要である。
我々の手法は、インフラと車両の両方で記録された情報と人間との相互作用を一切必要としない。
論文 参考訳(メタデータ) (2023-04-21T08:50:52Z) - CRLF: Automatic Calibration and Refinement based on Line Feature for
LiDAR and Camera in Road Scenes [16.201111055979453]
道路シーンにおけるライダーとカメラの遠距離パラメータを校正する新しい手法を提案する。
道路の車線やポールなどの静的な直線形状の物体を画像と点群の両方で線状化します。
KITTIと社内データセットに関する広範な実験を行い、定量的および定性的な結果は、当社の方法の堅牢性と正確性を示しています。
論文 参考訳(メタデータ) (2021-03-08T06:02:44Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Spatiotemporal Camera-LiDAR Calibration: A Targetless and Structureless
Approach [32.15405927679048]
ターゲットレスで構造のないカメラ-DARキャリブレーション法を提案する。
本手法は, 時間的パラメータの初期調整を必要としないような, 閉形式解と非構造束を結合する。
提案手法の精度とロバスト性をシミュレーションおよび実データ実験により実証する。
論文 参考訳(メタデータ) (2020-01-17T07:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。