論文の概要: DST-Calib: A Dual-Path, Self-Supervised, Target-Free LiDAR-Camera Extrinsic Calibration Network
- arxiv url: http://arxiv.org/abs/2601.01188v1
- Date: Sat, 03 Jan 2026 13:57:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.070026
- Title: DST-Calib: A Dual-Path, Self-Supervised, Target-Free LiDAR-Camera Extrinsic Calibration Network
- Title(参考訳): DST-Calib: デュアルパス、セルフスーパービジョン、ターゲットフリーLiDAR-Camera Extrinsic Calibration Network
- Authors: Zhiwei Huang, Yanwei Fu, Yi Zhou, Xieyuanli Chen, Qijun Chen, Rui Fan,
- Abstract要約: 本稿では,オンライン方式で動作するLiDARカメラ外装キャリブレーションネットワークについて紹介する。
提案手法は,一般化可能性の観点から既存手法を著しく上回っている。
- 参考スコア(独自算出の注目度): 57.22935789233992
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LiDAR-camera extrinsic calibration is essential for multi-modal data fusion in robotic perception systems. However, existing approaches typically rely on handcrafted calibration targets (e.g., checkerboards) or specific, static scene types, limiting their adaptability and deployment in real-world autonomous and robotic applications. This article presents the first self-supervised LiDAR-camera extrinsic calibration network that operates in an online fashion and eliminates the need for specific calibration targets. We first identify a significant generalization degradation problem in prior methods, caused by the conventional single-sided data augmentation strategy. To overcome this limitation, we propose a novel double-sided data augmentation technique that generates multi-perspective camera views using estimated depth maps, thereby enhancing robustness and diversity during training. Built upon this augmentation strategy, we design a dual-path, self-supervised calibration framework that reduces the dependence on high-precision ground truth labels and supports fully adaptive online calibration. Furthermore, to improve cross-modal feature association, we replace the traditional dual-branch feature extraction design with a difference map construction process that explicitly correlates LiDAR and camera features. This not only enhances calibration accuracy but also reduces model complexity. Extensive experiments conducted on five public benchmark datasets, as well as our own recorded dataset, demonstrate that the proposed method significantly outperforms existing approaches in terms of generalizability.
- Abstract(参考訳): ロボット認識システムにおけるマルチモーダルデータ融合には,LiDAR-camera extrinsic calibrationが不可欠である。
しかし、既存のアプローチは一般的に手作りのキャリブレーションターゲット(チェッカーボードなど)や、特定の静的シーンタイプに依存しており、現実の自律的およびロボット的アプリケーションへの適応性とデプロイを制限している。
本稿では、オンライン形式で動作し、特定のキャリブレーションターゲットの必要性を排除した、初の自己監督型LiDARカメラ外装キャリブレーションネットワークについて述べる。
まず,従来の単面データ拡張戦略によって引き起こされた,従来の手法における有意な一般化劣化問題を特定する。
この制限を克服するために,推定深度マップを用いたマルチパースペクティブカメラビューを生成する新しい両面データ拡張手法を提案する。
この拡張戦略に基づいて、我々は、高精度な真実ラベルへの依存を低減し、完全に適応的なオンラインキャリブレーションをサポートする、デュアルパスで自己管理型キャリブレーションフレームワークを設計する。
さらに、クロスモーダル特徴関連性を改善するために、従来のデュアルブランチ特徴抽出設計を、LiDARとカメラの特徴を明示的に関連付ける差分マップ構築プロセスに置き換える。
これによりキャリブレーション精度が向上するだけでなく、モデルの複雑さも低下する。
5つの公開ベンチマークデータセットと、我々の記録したデータセットで実施された大規模な実験により、提案手法は、一般化可能性の観点から既存のアプローチよりも大幅に優れていることが示された。
関連論文リスト
- CalibRefine: Deep Learning-Based Online Automatic Targetless LiDAR-Camera Calibration with Iterative and Attention-Driven Post-Refinement [7.736775961390864]
CalibRefineは完全に自動化され、ターゲットレス、オンラインキャリブレーションフレームワークである。
生のLiDAR点雲とカメラ画像を直接処理する。
以上の結果から,頑健なオブジェクトレベルの特徴マッチングと反復的改善と自己監督的注意に基づく改善が組み合わさって,信頼性の高いセンサアライメントを実現することが示唆された。
論文 参考訳(メタデータ) (2025-02-24T20:53:42Z) - What Really Matters for Learning-based LiDAR-Camera Calibration [50.2608502974106]
本稿では,学習に基づくLiDAR-Cameraキャリブレーションの開発を再考する。
我々は、広く使われているデータ生成パイプラインによる回帰ベースの手法の限界を識別する。
また,入力データ形式と前処理操作がネットワーク性能に与える影響についても検討する。
論文 参考訳(メタデータ) (2025-01-28T14:12:32Z) - Kalib: Easy Hand-Eye Calibration with Reference Point Tracking [52.4190876409222]
カリブ (Kalib) は、視覚基礎モデルの一般化性を利用して課題を克服する手眼自動校正法である。
校正中は、ロボットの後ろの空間内のカメラ座標3D座標に運動基準点を追跡する。
Kalibのユーザフレンドリな設計と最小限のセットアップ要件により、非構造化環境での継続的操作のソリューションとなり得る。
論文 参考訳(メタデータ) (2024-08-20T06:03:40Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。