論文の概要: One target to align them all: LiDAR, RGB and event cameras extrinsic calibration for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2511.12291v1
- Date: Sat, 15 Nov 2025 16:57:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.805645
- Title: One target to align them all: LiDAR, RGB and event cameras extrinsic calibration for Autonomous Driving
- Title(参考訳): LiDAR, RGB, イベントカメラによる自律運転用外装キャリブレーション
- Authors: Andrea Bertogalli, Giacomo Boracchi, Luca Magri,
- Abstract要約: 本稿では,イベントカメラ,LiDAR,RGBカメラ間の相対的なポーズを同時に推定する,新しいマルチモーダル外部キャリブレーションフレームワークを提案する。
提案手法のコアとなる3次元キャリブレーションターゲットは,3つのセンシングモードすべてで同時に認識できるように特別に設計・構築されている。
- 参考スコア(独自算出の注目度): 18.457468209694717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel multi-modal extrinsic calibration framework designed to simultaneously estimate the relative poses between event cameras, LiDARs, and RGB cameras, with particular focus on the challenging event camera calibration. Core of our approach is a novel 3D calibration target, specifically designed and constructed to be concurrently perceived by all three sensing modalities. The target encodes features in planes, ChArUco, and active LED patterns, each tailored to the unique characteristics of LiDARs, RGB cameras, and event cameras respectively. This unique design enables a one-shot, joint extrinsic calibration process, in contrast to existing approaches that typically rely on separate, pairwise calibrations. Our calibration pipeline is designed to accurately calibrate complex vision systems in the context of autonomous driving, where precise multi-sensor alignment is critical. We validate our approach through an extensive experimental evaluation on a custom built dataset, recorded with an advanced autonomous driving sensor setup, confirming the accuracy and robustness of our method.
- Abstract(参考訳): 本稿では,イベントカメラ,LiDAR,RGBカメラ間の相対的なポーズを同時に推定する,新しいマルチモーダル外部キャリブレーションフレームワークを提案する。
提案手法のコアとなる3次元キャリブレーションターゲットは,3つのセンシングモードすべてで同時に認識できるように特別に設計・構築されている。
ターゲットは飛行機、ChArUco、アクティブLEDパターンの特徴をエンコードしており、それぞれがLiDAR、RGBカメラ、イベントカメラのユニークな特徴に合わせて調整されている。
このユニークな設計は、通常、別個のペアワイズキャリブレーションに依存する既存のアプローチとは対照的に、一発で連発的なキャリブレーションプロセスを可能にする。
我々の校正パイプラインは、正確なマルチセンサーアライメントが重要である自動運転の文脈で複雑な視覚システムを正確に校正するために設計されている。
提案手法の精度とロバスト性を検証し,高度自律運転センサのセットアップで記録したカスタム構築データセットの広範な実験評価により,本手法の有効性を検証した。
関連論文リスト
- Targetless LiDAR-Camera Calibration with Neural Gaussian Splatting [28.41267004945046]
本稿では,ニューラルベースガウス表現と協調してセンサポーズを最適化するTLC(Targetless LiDAR scene)を提案する。
光度および幾何正則化による完全微分可能なパイプラインは、ロバストで一般化可能なキャリブレーションを実現する。
論文 参考訳(メタデータ) (2025-04-06T20:00:01Z) - CalibRefine: Deep Learning-Based Online Automatic Targetless LiDAR-Camera Calibration with Iterative and Attention-Driven Post-Refinement [7.736775961390864]
CalibRefineは完全に自動化され、ターゲットレス、オンラインキャリブレーションフレームワークである。
生のLiDAR点雲とカメラ画像を直接処理する。
以上の結果から,頑健なオブジェクトレベルの特徴マッチングと反復的改善と自己監督的注意に基づく改善が組み合わさって,信頼性の高いセンサアライメントを実現することが示唆された。
論文 参考訳(メタデータ) (2025-02-24T20:53:42Z) - Discovering an Image-Adaptive Coordinate System for Photography Processing [51.164345878060956]
曲線演算を行う前にRGB色空間における画像適応座標系を学習するための新しいアルゴリズム IAC を提案する。
このエンドツーエンドのトレーニング可能なアプローチにより、共同で学習した画像適応座標系と曲線を用いて、画像の効率よく調整できる。
論文 参考訳(メタデータ) (2025-01-11T06:20:07Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - How to Calibrate Your Event Camera [58.80418612800161]
画像再構成を用いた汎用イベントカメラキャリブレーションフレームワークを提案する。
ニューラルネットワークに基づく画像再構成は,イベントカメラの内在的・外在的キャリブレーションに適していることを示す。
論文 参考訳(メタデータ) (2021-05-26T07:06:58Z) - CRLF: Automatic Calibration and Refinement based on Line Feature for
LiDAR and Camera in Road Scenes [16.201111055979453]
道路シーンにおけるライダーとカメラの遠距離パラメータを校正する新しい手法を提案する。
道路の車線やポールなどの静的な直線形状の物体を画像と点群の両方で線状化します。
KITTIと社内データセットに関する広範な実験を行い、定量的および定性的な結果は、当社の方法の堅牢性と正確性を示しています。
論文 参考訳(メタデータ) (2021-03-08T06:02:44Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Infrastructure-based Multi-Camera Calibration using Radial Projections [117.22654577367246]
パターンベースのキャリブレーション技術は、カメラの内在を個別にキャリブレーションするために使用することができる。
Infrastucture-based calibration techniqueはSLAMやStructure-from-Motionで事前に構築した3Dマップを用いて外部情報を推定することができる。
本稿では,インフラストラクチャベースのアプローチを用いて,マルチカメラシステムをスクラッチから完全にキャリブレーションすることを提案する。
論文 参考訳(メタデータ) (2020-07-30T09:21:04Z) - Multi-View Photometric Stereo: A Robust Solution and Benchmark Dataset
for Spatially Varying Isotropic Materials [65.95928593628128]
多視点光度ステレオ技術を用いて3次元形状と空間的に異なる反射率の両方をキャプチャする手法を提案する。
我々のアルゴリズムは、遠近点光源と遠近点光源に適している。
論文 参考訳(メタデータ) (2020-01-18T12:26:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。