論文の概要: Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups
- arxiv url: http://arxiv.org/abs/2101.04431v1
- Date: Tue, 12 Jan 2021 12:02:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 01:37:33.374981
- Title: Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups
- Title(参考訳): LiDARおよびカメラセンサセットアップの自動外部校正法
- Authors: Jorge Beltr\'an, Carlos Guindel, Fernando Garc\'ia
- Abstract要約: 本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
- 参考スコア(独自算出の注目度): 68.8204255655161
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most sensor setups for onboard autonomous perception are composed of LiDARs
and vision systems, as they provide complementary information that improves the
reliability of the different algorithms necessary to obtain a robust scene
understanding. However, the effective use of information from different sources
requires an accurate calibration between the sensors involved, which usually
implies a tedious and burdensome process. We present a method to calibrate the
extrinsic parameters of any pair of sensors involving LiDARs, monocular or
stereo cameras, of the same or different modalities. The procedure is composed
of two stages: first, reference points belonging to a custom calibration target
are extracted from the data provided by the sensors to be calibrated, and
second, the optimal rigid transformation is found through the registration of
both point sets. The proposed approach can handle devices with very different
resolutions and poses, as usually found in vehicle setups. In order to assess
the performance of the proposed method, a novel evaluation suite built on top
of a popular simulation framework is introduced. Experiments on the synthetic
environment show that our calibration algorithm significantly outperforms
existing methods, whereas real data tests corroborate the results obtained in
the evaluation suite. Open-source code is available at
https://github.com/beltransen/velo2cam_calibration
- Abstract(参考訳): ほとんどのセンサーはlidarと視覚システムで構成されており、ロバストなシーン理解を得るために必要な異なるアルゴリズムの信頼性を向上させる補完的情報を提供する。
しかし、異なるソースからの情報の効果的な使用には、関連するセンサー間の正確なキャリブレーションが必要である。
そこで本研究では,LiDAR,モノクラーカメラ,ステレオカメラを含むセンサ対の外部パラメータを同一あるいは異なるモードで校正する手法を提案する。
第1に、カスタム校正対象に属する基準点を校正するセンサによって提供されるデータから抽出し、第2に、両点セットの登録により最適な剛性変換を求める。
提案手法は、通常車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
提案手法の性能を評価するため,一般的なシミュレーションフレームワーク上に構築された新しい評価スイートを紹介した。
合成環境における実験により, キャリブレーションアルゴリズムは既存の手法よりも有意に優れており, 実データテストは評価スイートで得られた結果と相関することがわかった。
オープンソースコードはhttps://github.com/beltransen/velo2cam_calibrationで入手できる。
関連論文リスト
- YOCO: You Only Calibrate Once for Accurate Extrinsic Parameter in LiDAR-Camera Systems [0.5999777817331317]
カメラとLiDARからなるマルチセンサー融合システムでは、正確な外部キャリブレーションがシステムの長期的な安定性と環境の正確な認識に寄与する。
本稿では,LiDARカメラシステムにおいて,対応点登録の必要性を回避するための完全自動外部校正手法を提案する。
論文 参考訳(メタデータ) (2024-07-25T13:44:49Z) - SOAC: Spatio-Temporal Overlap-Aware Multi-Sensor Calibration using Neural Radiance Fields [10.958143040692141]
自律運転のような急速に進化する領域では、動作精度と安定性を確保するために、異なるモードの複数のセンサーを使用することが不可欠である。
各センサが提供した情報を単一の共通フレームで正確に活用するためには、これらのセンサを正確に校正することが不可欠である。
我々は、共通の表現において異なるモダリティを表現するために、ニューラルラジアンス場(Neural Radiance Fields)の能力を利用する。
論文 参考訳(メタデータ) (2023-11-27T13:25:47Z) - TrajMatch: Towards Automatic Spatio-temporal Calibration for Roadside
LiDARs through Trajectory Matching [12.980324010888664]
我々は,道路沿いのLiDARを時間と空間の両方で自動調整できる最初のシステムであるTrajMatchを提案する。
実験の結果,TrajMatchは空間キャリブレーション誤差が10cm未満であり,時間キャリブレーション誤差が1.5ms未満であることがわかった。
論文 参考訳(メタデータ) (2023-02-04T12:27:01Z) - SST-Calib: Simultaneous Spatial-Temporal Parameter Calibration between
LIDAR and Camera [26.59231069298659]
カメラLIDARスイートの校正における幾何学的パラメータと時間的パラメータを共同で推定するセグメンテーションベースのフレームワークを提案する。
提案アルゴリズムは,KITTIデータセット上でテストし,幾何学的パラメータと時間的パラメータの正確なリアルタイムキャリブレーションを示す。
論文 参考訳(メタデータ) (2022-07-08T06:21:52Z) - CROON: Automatic Multi-LiDAR Calibration and Refinement Method in Road
Scene [15.054452813705112]
CROON(AutomatiC multi-LiDAR CalibratiOn and Refinement method in rOad sceNe)は、粗さと精細度校正を含む2段階法である。
実世界のデータセットとシミュレーションデータセットの結果から,本手法の信頼性と精度が示された。
論文 参考訳(メタデータ) (2022-03-07T07:36:31Z) - Self-Supervised Person Detection in 2D Range Data using a Calibrated
Camera [83.31666463259849]
2次元LiDARに基づく人検出器のトレーニングラベル(擬似ラベル)を自動生成する手法を提案する。
擬似ラベルで訓練または微調整された自己監視検出器が,手動アノテーションを用いて訓練された検出器を上回っていることを示した。
私達の方法は付加的な分類の努力なしで配置の間に人の探知器を改善する有効な方法です。
論文 参考訳(メタデータ) (2020-12-16T12:10:04Z) - Infrastructure-based Multi-Camera Calibration using Radial Projections [117.22654577367246]
パターンベースのキャリブレーション技術は、カメラの内在を個別にキャリブレーションするために使用することができる。
Infrastucture-based calibration techniqueはSLAMやStructure-from-Motionで事前に構築した3Dマップを用いて外部情報を推定することができる。
本稿では,インフラストラクチャベースのアプローチを用いて,マルチカメラシステムをスクラッチから完全にキャリブレーションすることを提案する。
論文 参考訳(メタデータ) (2020-07-30T09:21:04Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Deep Soft Procrustes for Markerless Volumetric Sensor Alignment [81.13055566952221]
本研究では、より堅牢なマルチセンサ空間アライメントを実現するために、マーカーレスデータ駆動対応推定を改善する。
我々は、幾何学的制約を終末的に典型的なセグメンテーションベースモデルに組み込み、対象のポーズ推定タスクと中間密な分類タスクをブリッジする。
実験により,マーカーベースの手法で同様の結果が得られ,マーカーレス手法よりも優れ,またキャリブレーション構造のポーズ変動にも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-03-23T10:51:32Z) - EHSOD: CAM-Guided End-to-end Hybrid-Supervised Object Detection with
Cascade Refinement [53.69674636044927]
本稿では,エンド・ツー・エンドのハイブリッド型オブジェクト検出システムであるEHSODについて述べる。
完全なアノテートと弱いアノテートの両方で、ワンショットでトレーニングすることができる。
完全なアノテートされたデータの30%しか持たない複数のオブジェクト検出ベンチマークで、同等の結果が得られる。
論文 参考訳(メタデータ) (2020-02-18T08:04:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。