論文の概要: CalibFormer: A Transformer-based Automatic LiDAR-Camera Calibration
Network
- arxiv url: http://arxiv.org/abs/2311.15241v1
- Date: Sun, 26 Nov 2023 08:59:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 18:31:18.247238
- Title: CalibFormer: A Transformer-based Automatic LiDAR-Camera Calibration
Network
- Title(参考訳): CalibFormer: トランスフォーマーによるLiDARカメラ自動校正ネットワーク
- Authors: Yuxuan Xiao, Yao Li, Chengzhen Meng, Xingchen Li and Yanyong Zhang
- Abstract要約: CalibFormerは自動LiDARカメラキャリブレーションのためのエンドツーエンドネットワークである。
高精細度表現を実現するために、複数のカメラ層とLiDAR画像層を集約する。
平均翻訳誤差は0.8751 Mathrmcm$, 平均回転誤差は0.0562 circ$であった。
- 参考スコア(独自算出の注目度): 10.868311812390093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The fusion of LiDARs and cameras has been increasingly adopted in autonomous
driving for perception tasks. The performance of such fusion-based algorithms
largely depends on the accuracy of sensor calibration, which is challenging due
to the difficulty of identifying common features across different data
modalities. Previously, many calibration methods involved specific targets
and/or manual intervention, which has proven to be cumbersome and costly.
Learning-based online calibration methods have been proposed, but their
performance is barely satisfactory in most cases. These methods usually suffer
from issues such as sparse feature maps, unreliable cross-modality association,
inaccurate calibration parameter regression, etc. In this paper, to address
these issues, we propose CalibFormer, an end-to-end network for automatic
LiDAR-camera calibration. We aggregate multiple layers of camera and LiDAR
image features to achieve high-resolution representations. A multi-head
correlation module is utilized to identify correlations between features more
accurately. Lastly, we employ transformer architectures to estimate accurate
calibration parameters from the correlation information. Our method achieved a
mean translation error of $0.8751 \mathrm{cm}$ and a mean rotation error of
$0.0562 ^{\circ}$ on the KITTI dataset, surpassing existing state-of-the-art
methods and demonstrating strong robustness, accuracy, and generalization
capabilities.
- Abstract(参考訳): LiDARとカメラの融合は、認識タスクの自動運転にますます採用されている。
このような融合に基づくアルゴリズムの性能は、センサーキャリブレーションの精度に大きく依存する。
以前は、多くの校正手法には特定の目標や手動による介入が含まれていた。
学習に基づくオンライン校正手法が提案されているが、ほとんどのケースでその性能はほとんど満足できない。
これらの手法は通常、スパース特徴写像、信頼できない相互モダリティ関係、不正確なキャリブレーションパラメータ回帰などの問題に苦しむ。
本稿では,この問題を解決するために,自動LiDARカメラキャリブレーションのためのエンドツーエンドネットワークCalibFormerを提案する。
高解像度表現を実現するために,複数のカメラ層とLiDAR画像層を集約する。
マルチヘッド相関モジュールを用いて特徴間の相関をより正確に識別する。
最後に,相関情報から正確な校正パラメータを推定するためにトランスアーキテクチャを用いる。
提案手法は, KITTIデータセット上で平均翻訳誤差が0.8751 \mathrm{cm}$, 平均回転誤差が0.0562 ^{\circ}$となり, 既存の最先端手法を超越し, 強靭性, 精度, 一般化能力を示した。
関連論文リスト
- From Chaos to Calibration: A Geometric Mutual Information Approach to
Target-Free Camera LiDAR Extrinsic Calibration [4.378156825150505]
そこで本研究では,根拠となる真理学習データを必要としない目標外キャリブレーションアルゴリズムを提案する。
我々は,KITTI と KITTI-360 の魚眼データセットを用いた改良を行った。
論文 参考訳(メタデータ) (2023-11-03T13:30:31Z) - EdgeCalib: Multi-Frame Weighted Edge Features for Automatic Targetless
LiDAR-Camera Calibration [15.057994140880373]
実世界のシナリオにおけるLiDARとカメラの自動校正のためのエッジベースのアプローチを提案する。
エッジ機能は、様々な環境で広く使われているが、画像と点雲の両方に並び、外在パラメータを決定する。
その結果, 最先端回転精度は0.086deg, 翻訳精度は0.977cmであり, 既存のエッジベースキャリブレーション法よりも精度とロバスト性が高いことがわかった。
論文 参考訳(メタデータ) (2023-10-25T13:27:56Z) - Continuous Online Extrinsic Calibration of Fisheye Camera and LiDAR [7.906477322731106]
高レベルの知覚機能を必要とする共通空間参照フレームにカメラとLiDARデータを融合するためには、正確な外部キャリブレーションが必要である。
連続的なオンライン外部キャリブレーションアルゴリズムは、センサーデータのみを使用して、車両の寿命中にカメラ-LiDARキャリブレーションの値を自動更新することができる。
本稿では,一般的な単眼深度推定ネットワークによって提供されるカメラ画像の深度推定と,外部キャリブレーションの最適化指標としてLiDAR点雲の幾何距離の相互情報を用いることを提案する。
論文 参考訳(メタデータ) (2023-06-22T23:16:31Z) - TrajMatch: Towards Automatic Spatio-temporal Calibration for Roadside
LiDARs through Trajectory Matching [12.980324010888664]
我々は,道路沿いのLiDARを時間と空間の両方で自動調整できる最初のシステムであるTrajMatchを提案する。
実験の結果,TrajMatchは空間キャリブレーション誤差が10cm未満であり,時間キャリブレーション誤差が1.5ms未満であることがわかった。
論文 参考訳(メタデータ) (2023-02-04T12:27:01Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Combining Ensembles and Data Augmentation can Harm your Calibration [33.94335246681807]
アンサンブルとデータ拡張を組み合わせることで、モデルのキャリブレーションを損なう可能性がある。
我々は,アンサンブルやデータ拡張のみを個別に使用することよりも,精度とキャリブレーションの利得を高い精度で達成し,両世界のベストを達成できる簡単な補正を提案する。
論文 参考訳(メタデータ) (2020-10-19T21:25:22Z) - Uncertainty Quantification and Deep Ensembles [79.4957965474334]
ディープアンサンブルが必ずしもキャリブレーション特性の改善につながるとは限らないことを示す。
そこで本研究では,混成正規化などの現代的な手法と併用して標準アンサンブル法を用いることで,キャリブレーションの少ないモデルが得られることを示す。
このテキストは、データが不足しているときにディープラーニングを活用するために、最も単純で一般的な3つのアプローチの相互作用を調べる。
論文 参考訳(メタデータ) (2020-07-17T07:32:24Z) - Transferable Calibration with Lower Bias and Variance in Domain
Adaptation [139.4332115349543]
ドメイン適応(DA)は、ラベル付きソースドメインからラベル付きターゲットドメインへの学習マシンの転送を可能にする。
DAモデルの予測的不確実性を推定する方法は、安全クリティカルなシナリオにおける意思決定に不可欠である。
TransCalは既存のDAメソッドの校正に簡単に適用できる。
論文 参考訳(メタデータ) (2020-07-16T11:09:36Z) - Self-Calibration Supported Robust Projective Structure-from-Motion [80.15392629310507]
本稿では,自己校正制約によってマッチングプロセスが支持される統合されたStructure-from-Motion (SfM)法を提案する。
これらの制約を利用して,ロバストなマルチビューマッチングと正確なカメラキャリブレーションを示す実験結果を示す。
論文 参考訳(メタデータ) (2020-07-04T08:47:10Z) - Intra Order-preserving Functions for Calibration of Multi-Class Neural
Networks [54.23874144090228]
一般的なアプローチは、元のネットワークの出力をキャリブレーションされた信頼スコアに変換する、ポストホックキャリブレーション関数を学ぶことである。
以前のポストホックキャリブレーション技術は単純なキャリブレーション機能でしか機能しない。
本稿では,順序保存関数のクラスを表すニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-15T12:57:21Z) - Calibrating Deep Neural Networks using Focal Loss [77.92765139898906]
ミススキャリブレーション(Miscalibration)は、モデルの信頼性と正しさのミスマッチである。
焦点損失は、既に十分に校正されたモデルを学ぶことができることを示す。
ほぼすべてのケースにおいて精度を損なうことなく,最先端のキャリブレーションを達成できることを示す。
論文 参考訳(メタデータ) (2020-02-21T17:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。