論文の概要: Environment-Driven Online LiDAR-Camera Extrinsic Calibration
- arxiv url: http://arxiv.org/abs/2502.00801v1
- Date: Sun, 02 Feb 2025 13:52:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:01:40.291926
- Title: Environment-Driven Online LiDAR-Camera Extrinsic Calibration
- Title(参考訳): 環境駆動型LiDAR-Camera Extrinsic Calibration
- Authors: Zhiwei Huang, Jiaqi Li, Ping Zhong, Rui Fan,
- Abstract要約: EdO-LCECは、人間のような適応性を実現する最初の環境駆動型オンラインキャリブレーションアプローチである。
人間のシステムにインスパイアされたEdO-LCECは、環境条件を積極的に解釈するために、一般化可能なシーン識別装置を組み込んでいる。
本手法は空間時間共同最適化問題としてキャリブレーション過程を定式化する。
- 参考スコア(独自算出の注目度): 8.096139287822997
- License:
- Abstract: LiDAR-camera extrinsic calibration (LCEC) is the core for data fusion in computer vision. Existing methods typically rely on customized calibration targets or fixed scene types, lacking the flexibility to handle variations in sensor data and environmental contexts. This paper introduces EdO-LCEC, the first environment-driven, online calibration approach that achieves human-like adaptability. Inspired by the human perceptual system, EdO-LCEC incorporates a generalizable scene discriminator to actively interpret environmental conditions, creating multiple virtual cameras that capture detailed spatial and textural information. To overcome cross-modal feature matching challenges between LiDAR and camera, we propose dual-path correspondence matching (DPCM), which leverages both structural and textural consistency to achieve reliable 3D-2D correspondences. Our approach formulates the calibration process as a spatial-temporal joint optimization problem, utilizing global constraints from multiple views and scenes to improve accuracy, particularly in sparse or partially overlapping sensor views. Extensive experiments on real-world datasets demonstrate that EdO-LCEC achieves state-of-the-art performance, providing reliable and precise calibration across diverse, challenging environments.
- Abstract(参考訳): LiDAR-camera extrinsic calibration (LCEC) はコンピュータビジョンにおけるデータ融合のコアである。
既存の方法は、通常、カスタマイズされたキャリブレーションターゲットや固定されたシーンタイプに依存しており、センサーデータや環境コンテキストのバリエーションを扱う柔軟性に欠ける。
本稿では,人間ライクな適応性を実現する環境駆動型オンラインキャリブレーション手法であるEdO-LCECを紹介する。
人間の知覚システムにインスパイアされたEdO-LCECは、環境条件を積極的に解釈する汎用的なシーン識別装置を導入し、複数の仮想カメラを作成し、詳細な空間情報とテクスチャ情報をキャプチャする。
LiDARとカメラのクロスモーダルな特徴マッチングの課題を克服するために,構造的およびテクスチャ的整合性を利用して信頼性の高い3D-2D対応を実現するデュアルパス対応マッチング(DPCM)を提案する。
本稿では,空間的時間的共同最適化問題としてキャリブレーション過程を定式化し,複数のビューやシーンからの大域的制約を利用して精度を向上する。
実世界のデータセットに関する大規模な実験は、EdO-LCECが最先端のパフォーマンスを達成し、多様な、挑戦的な環境にわたって信頼性と正確なキャリブレーションを提供することを示した。
関連論文リスト
- What Really Matters for Learning-based LiDAR-Camera Calibration [50.2608502974106]
本稿では,学習に基づくLiDAR-Cameraキャリブレーションの開発を再考する。
我々は、広く使われているデータ生成パイプラインによる回帰ベースの手法の限界を識別する。
また,入力データ形式と前処理操作がネットワーク性能に与える影響についても検討する。
論文 参考訳(メタデータ) (2025-01-28T14:12:32Z) - UniCal: Unified Neural Sensor Calibration [32.7372115947273]
自動運転車(SDV)には、LiDARとカメラの正確な校正が必要である。
従来のキャリブレーション手法では、制御され構造化されたシーンでキャプチャされたフィデューシャルを利用し、処理を最適化するために対応を計算する。
我々は、複数のLiDARとカメラを備えたSDVを強制的に校正する統合フレームワークUniCalを提案する。
論文 参考訳(メタデータ) (2024-09-27T17:56:04Z) - Online,Target-Free LiDAR-Camera Extrinsic Calibration via Cross-Modal Mask Matching [16.13886663417327]
我々はMIAS-LCECと呼ばれる新しいフレームワークを導入し、オープンソースの多目的キャリブレーションツールボックスを提供し、3つの実世界のデータセットをパブリッシュする。
我々のフレームワークとツールボックスの基盤は、最先端(SoTA)のLVMに基づいて開発されたクロスモーダルマスクマッチング(C3M)アルゴリズムである。
論文 参考訳(メタデータ) (2024-04-28T06:25:56Z) - View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - CROON: Automatic Multi-LiDAR Calibration and Refinement Method in Road
Scene [15.054452813705112]
CROON(AutomatiC multi-LiDAR CalibratiOn and Refinement method in rOad sceNe)は、粗さと精細度校正を含む2段階法である。
実世界のデータセットとシミュレーションデータセットの結果から,本手法の信頼性と精度が示された。
論文 参考訳(メタデータ) (2022-03-07T07:36:31Z) - Leveraging Spatial and Photometric Context for Calibrated Non-Lambertian
Photometric Stereo [61.6260594326246]
空間と測光の両方を同時に活用できる効率的な完全畳み込みアーキテクチャを提案する。
分離可能な4D畳み込みと2D熱マップを使うことで、サイズが小さくなり、効率が向上する。
論文 参考訳(メタデータ) (2021-03-22T18:06:58Z) - CRLF: Automatic Calibration and Refinement based on Line Feature for
LiDAR and Camera in Road Scenes [16.201111055979453]
道路シーンにおけるライダーとカメラの遠距離パラメータを校正する新しい手法を提案する。
道路の車線やポールなどの静的な直線形状の物体を画像と点群の両方で線状化します。
KITTIと社内データセットに関する広範な実験を行い、定量的および定性的な結果は、当社の方法の堅牢性と正確性を示しています。
論文 参考訳(メタデータ) (2021-03-08T06:02:44Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。