論文の概要: Online Camera-to-ground Calibration for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2303.17137v1
- Date: Thu, 30 Mar 2023 04:01:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 14:24:28.000875
- Title: Online Camera-to-ground Calibration for Autonomous Driving
- Title(参考訳): 自律運転のためのオンラインカメラと地上の校正
- Authors: Binbin Li, Xinyu Du, Yao Hu, Hao Yu, Wende Zhang
- Abstract要約: 運転中に特定の目標を利用できないオンライン単眼カメラ・地上キャリブレーションソリューションを提案する。
キャリブレーション性能の定量化と,満足度の高いキャリブレーション結果の報告・放送の停止基準を提供する。
- 参考スコア(独自算出の注目度): 26.357898919134833
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online camera-to-ground calibration is to generate a non-rigid body
transformation between the camera and the road surface in a real-time manner.
Existing solutions utilize static calibration, suffering from environmental
variations such as tire pressure changes, vehicle loading volume variations,
and road surface diversity. Other online solutions exploit the usage of road
elements or photometric consistency between overlapping views across images,
which require continuous detection of specific targets on the road or
assistance with multiple cameras to facilitate calibration. In our work, we
propose an online monocular camera-to-ground calibration solution that does not
utilize any specific targets while driving. We perform a coarse-to-fine
approach for ground feature extraction through wheel odometry and estimate the
camera-to-ground calibration parameters through a sliding-window-based factor
graph optimization. Considering the non-rigid transformation of
camera-to-ground while driving, we provide metrics to quantify calibration
performance and stopping criteria to report/broadcast our satisfying
calibration results. Extensive experiments using real-world data demonstrate
that our algorithm is effective and outperforms state-of-the-art techniques.
- Abstract(参考訳): オンラインカメラから地上へのキャリブレーションは、カメラと路面の間の非剛体変換をリアルタイムで生成する。
既存のソリューションは静的キャリブレーションを利用しており、タイヤ圧力の変化、車両の積載量の変化、路面の多様性といった環境変化に悩まされている。
他のオンラインソリューションでは、道路要素の使用や、画像に重なり合ったビュー間の測光一貫性を利用して、道路上の特定のターゲットの連続検出や、キャリブレーションを容易にする複数のカメラによる支援を必要とする。
本研究では,運転中に特定の目標を利用できないオンライン単眼カメラ・地上キャリブレーションソリューションを提案する。
本研究では,車輪オドメトリーによる地盤特徴抽出のための粗視的アプローチを行い,スライディングウィンドウに基づく因子グラフ最適化によるカメラから地上へのキャリブレーションパラメータを推定する。
運転中のカメラから地面への非剛性変換を考慮し,キャリブレーション性能を定量化し,キャリブレーション結果の報告/提示のための基準を提示する。
実世界データを用いた広範囲な実験により,本アルゴリズムが実世界の手法を上回っていることを示す。
関連論文リスト
- Automated Automotive Radar Calibration With Intelligent Vehicles [73.15674960230625]
本稿では,自動車用レーダセンサの自動校正手法を提案する。
本手法では, 車両の外部改造を必要とせず, 自動走行車から得られる位置情報を利用する。
実地試験場からのデータを評価した結果,インフラセンサを自動で正確に校正できることが判明した。
論文 参考訳(メタデータ) (2023-06-23T07:01:10Z) - Continuous Online Extrinsic Calibration of Fisheye Camera and LiDAR [7.906477322731106]
高レベルの知覚機能を必要とする共通空間参照フレームにカメラとLiDARデータを融合するためには、正確な外部キャリブレーションが必要である。
連続的なオンライン外部キャリブレーションアルゴリズムは、センサーデータのみを使用して、車両の寿命中にカメラ-LiDARキャリブレーションの値を自動更新することができる。
本稿では,一般的な単眼深度推定ネットワークによって提供されるカメラ画像の深度推定と,外部キャリブレーションの最適化指標としてLiDAR点雲の幾何距離の相互情報を用いることを提案する。
論文 参考訳(メタデータ) (2023-06-22T23:16:31Z) - E-Calib: A Fast, Robust and Accurate Calibration Toolbox for Event Cameras [18.54225086007182]
E-Calibは、イベントカメラの新しい、高速で、堅牢で、正確なキャリブレーションツールボックスである。
提案手法は,様々なイベントカメラモデルに対する様々な厳密な実験で検証される。
論文 参考訳(メタデータ) (2023-06-15T12:16:38Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - Automated Static Camera Calibration with Intelligent Vehicles [58.908194559319405]
自動ジオレファレンスカメラキャリブレーションのためのロバストキャリブレーション法を提案する。
本手法では, フィルタ/RTK受信機と慣性測定ユニット(IMU)を組み合わせたキャリブレーション車両が必要である。
我々の手法は、インフラと車両の両方で記録された情報と人間との相互作用を一切必要としない。
論文 参考訳(メタデータ) (2023-04-21T08:50:52Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Self-Supervised Camera Self-Calibration from Video [34.35533943247917]
汎用カメラモデルの効率的なファミリーを用いてシーケンスごとのキャリブレーションパラメータを回帰する学習アルゴリズムを提案する。
提案手法は,サブピクセル再投射誤差による自己校正を行い,他の学習手法よりも優れる。
論文 参考訳(メタデータ) (2021-12-06T19:42:05Z) - How to Calibrate Your Event Camera [58.80418612800161]
画像再構成を用いた汎用イベントカメラキャリブレーションフレームワークを提案する。
ニューラルネットワークに基づく画像再構成は,イベントカメラの内在的・外在的キャリブレーションに適していることを示す。
論文 参考訳(メタデータ) (2021-05-26T07:06:58Z) - CRLF: Automatic Calibration and Refinement based on Line Feature for
LiDAR and Camera in Road Scenes [16.201111055979453]
道路シーンにおけるライダーとカメラの遠距離パラメータを校正する新しい手法を提案する。
道路の車線やポールなどの静的な直線形状の物体を画像と点群の両方で線状化します。
KITTIと社内データセットに関する広範な実験を行い、定量的および定性的な結果は、当社の方法の堅牢性と正確性を示しています。
論文 参考訳(メタデータ) (2021-03-08T06:02:44Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Superaccurate Camera Calibration via Inverse Rendering [0.19336815376402716]
逆レンダリングの原理を用いたカメラキャリブレーションの新しい手法を提案する。
検出された特徴点のみに頼らず、内部パラメータの推定と校正対象のポーズを用いて光学的特徴の非フォトリアリスティックな等価性を暗黙的に描画する。
論文 参考訳(メタデータ) (2020-03-20T10:26:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。