論文の概要: Environment-Driven Online LiDAR-Camera Extrinsic Calibration
- arxiv url: http://arxiv.org/abs/2502.00801v2
- Date: Sat, 28 Jun 2025 07:47:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 15:08:38.938247
- Title: Environment-Driven Online LiDAR-Camera Extrinsic Calibration
- Title(参考訳): 環境駆動型LiDAR-Camera Extrinsic Calibration
- Authors: Zhiwei Huang, Jiaqi Li, Ping Zhong, Rui Fan,
- Abstract要約: 環境駆動型オンラインキャリブレーション手法であるEdO-LCECを紹介する。
EdO-LCECは、一般化可能なシーン判別器を用いて、アプリケーション環境の特徴密度を観測する。
LiDARとカメラのクロスモーダルな特徴マッチングの課題を克服するため,デュアルパス対応マッチングを提案する。
- 参考スコア(独自算出の注目度): 8.096139287822997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LiDAR-camera extrinsic calibration (LCEC) is crucial for multi-modal data fusion in mechatronics. Existing methods, whether target-based or target-free, typically rely on customized calibration targets or fixed scene types, limiting their practicality in real-world applications. To address these challenges, we introduce EdO-LCEC, the first environment-driven online calibration approach. Unlike traditional target-free methods, EdO-LCEC observes the feature density of the application environment through a generalizable scene discriminator. Based on this feature density, EdO-LCEC extracts LiDAR intensity and depth features from varying perspectives to achieve higher calibration accuracy. To overcome the challenges of cross-modal feature matching between LiDAR and camera, we propose dual-path correspondence matching (DPCM), which leverages both structural and textural consistency for reliable 3D-2D correspondences. Additionally, our approach models the calibration process as a joint optimization problem utilizing global constraints from multiple views and scenes to enhance accuracy. Extensive experiments on real-world datasets demonstrate that EdO-LCEC outperforms state-of-the-art methods, particularly in sparse or partially overlapping sensor views.
- Abstract(参考訳): メカトロニクスにおける多モードデータ融合にはLCEC(LiDAR-camera extrinsic calibration)が不可欠である。
ターゲットベースであれ、ターゲットフリーであれ、既存の方法は、通常、カスタマイズされたキャリブレーションターゲットまたは固定されたシーンタイプに依存し、現実のアプリケーションにおける実用性を制限する。
これらの課題に対処するため,環境駆動型オンラインキャリブレーション手法であるEdO-LCECを導入する。
従来のターゲットフリーの手法とは異なり、EdO-LCECは一般化可能なシーン判別器を通してアプリケーション環境の特徴密度を観察する。
この特徴密度に基づいて、EdO-LCECは様々な視点からLiDAR強度と深さ特性を抽出し、高い校正精度を実現する。
LiDARとカメラのクロスモーダルな特徴マッチングの課題を克服するため,信頼性の高い3D-2D対応に構造的およびテクスチャ的整合性を利用するDPCMを提案する。
さらに,複数のビューやシーンからの大域的制約を利用する共同最適化問題としてキャリブレーション処理をモデル化し,精度を向上する。
実世界のデータセットに関する大規模な実験は、EdO-LCECが最先端の手法、特にスパースまたは部分的に重複するセンサービューよりも優れていることを示した。
関連論文リスト
- Targetless LiDAR-Camera Calibration with Anchored 3D Gaussians [21.057702337896995]
任意のシーンからセンサポーズとシーン形状を協調的に最適化するLiDARカメラキャリブレーション手法を提案する。
2つの実世界の自律走行データセットに関する広範な実験により,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2025-04-06T20:00:01Z) - CalibRefine: Deep Learning-Based Online Automatic Targetless LiDAR-Camera Calibration with Iterative and Attention-Driven Post-Refinement [5.069968819561576]
CalibRefineは完全に自動化され、ターゲットレス、オンラインキャリブレーションフレームワークである。
我々は,CalibRefineが人間の関与を最小限に抑えた高精度キャリブレーション結果を提供することを示した。
本研究は、オブジェクトレベルの特徴マッチングが、反復的かつ自己監督的な注意に基づく調整と相まって、複雑で現実的な条件下でのセンサの融合を可能にすることを明らかにする。
論文 参考訳(メタデータ) (2025-02-24T20:53:42Z) - What Really Matters for Learning-based LiDAR-Camera Calibration [50.2608502974106]
本稿では,学習に基づくLiDAR-Cameraキャリブレーションの開発を再考する。
我々は、広く使われているデータ生成パイプラインによる回帰ベースの手法の限界を識別する。
また,入力データ形式と前処理操作がネットワーク性能に与える影響についても検討する。
論文 参考訳(メタデータ) (2025-01-28T14:12:32Z) - Online,Target-Free LiDAR-Camera Extrinsic Calibration via Cross-Modal Mask Matching [16.13886663417327]
我々はMIAS-LCECと呼ばれる新しいフレームワークを導入し、オープンソースの多目的キャリブレーションツールボックスを提供し、3つの実世界のデータセットをパブリッシュする。
我々のフレームワークとツールボックスの基盤は、最先端(SoTA)のLVMに基づいて開発されたクロスモーダルマスクマッチング(C3M)アルゴリズムである。
論文 参考訳(メタデータ) (2024-04-28T06:25:56Z) - View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - CROON: Automatic Multi-LiDAR Calibration and Refinement Method in Road
Scene [15.054452813705112]
CROON(AutomatiC multi-LiDAR CalibratiOn and Refinement method in rOad sceNe)は、粗さと精細度校正を含む2段階法である。
実世界のデータセットとシミュレーションデータセットの結果から,本手法の信頼性と精度が示された。
論文 参考訳(メタデータ) (2022-03-07T07:36:31Z) - Leveraging Spatial and Photometric Context for Calibrated Non-Lambertian
Photometric Stereo [61.6260594326246]
空間と測光の両方を同時に活用できる効率的な完全畳み込みアーキテクチャを提案する。
分離可能な4D畳み込みと2D熱マップを使うことで、サイズが小さくなり、効率が向上する。
論文 参考訳(メタデータ) (2021-03-22T18:06:58Z) - CRLF: Automatic Calibration and Refinement based on Line Feature for
LiDAR and Camera in Road Scenes [16.201111055979453]
道路シーンにおけるライダーとカメラの遠距離パラメータを校正する新しい手法を提案する。
道路の車線やポールなどの静的な直線形状の物体を画像と点群の両方で線状化します。
KITTIと社内データセットに関する広範な実験を行い、定量的および定性的な結果は、当社の方法の堅牢性と正確性を示しています。
論文 参考訳(メタデータ) (2021-03-08T06:02:44Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。