論文の概要: LiREC-Net: A Target-Free and Learning-Based Network for LiDAR, RGB, and Event Calibration
- arxiv url: http://arxiv.org/abs/2602.21754v1
- Date: Wed, 25 Feb 2026 10:08:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.790325
- Title: LiREC-Net: A Target-Free and Learning-Based Network for LiDAR, RGB, and Event Calibration
- Title(参考訳): LiREC-Net:LiDAR、RGB、イベントキャリブレーションのためのターゲットフリーで学習ベースのネットワーク
- Authors: Aditya Ranjan Dash, Ramy Battrawy, René Schuster, Didier Stricker,
- Abstract要約: LiREC-Netは、目標のない学習ベースのキャリブレーションネットワークであり、複数のセンサモダリティペアを共同で校正する。
我々は,その3次元特性と投影深度マップの両方から計算機能を利用する共有LiDAR表現を導入する。
我々のLiREC-Netは、バイモーダルモデルとの競合性能を達成し、トライモーダルユースケースの新しい強力なベースラインを設定します。
- 参考スコア(独自算出の注目度): 18.479441935331156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advanced autonomous systems rely on multi-sensor fusion for safer and more robust perception. To enable effective fusion, calibrating directly from natural driving scenes (i.e., target-free) with high accuracy is crucial for precise multi-sensor alignment. Existing learning-based calibration methods are typically designed for only a single pair of sensor modalities (i.e., a bi-modal setup). Unlike these methods, we propose LiREC-Net, a target-free, learning-based calibration network that jointly calibrates multiple sensor modality pairs, including LiDAR, RGB, and event data, within a unified framework. To reduce redundant computation and improve efficiency, we introduce a shared LiDAR representation that leverages features from both its 3D nature and projected depth map, ensuring better consistency across modalities. Trained and evaluated on established datasets, such as KITTI and DSEC, our LiREC-Net achieves competitive performance to bi-modal models and sets a new strong baseline for the tri-modal use case.
- Abstract(参考訳): 高度な自律システムは、より安全で堅牢な知覚のためにマルチセンサー融合に依存している。
効果的な融合を実現するためには、より正確なマルチセンサーアライメントのためには、自然運転シーン(すなわちターゲットフリー)から直接高精度で校正することが不可欠である。
既存の学習ベースの校正法は、通常は1対のセンサーモード(バイモーダル設定)のみのために設計されている。
これらの手法とは違って、LiDAR、RGB、イベントデータを含む複数のセンサモダリティペアを統合されたフレームワークで共同で校正する、目標のない学習ベースキャリブレーションネットワークであるLiREC-Netを提案する。
冗長計算の削減と効率向上のために,我々は,その3次元特性と投影深度マップの両方の特徴を生かした共有LiDAR表現を導入し,モダリティ間の整合性を確保する。
KITTIやDSECといった確立したデータセットに基づいてトレーニングされ、評価されたLiREC-Netは、バイモーダルモデルとの競合性能を実現し、トリモーダルユースケースのための新たな強力なベースラインを設定します。
関連論文リスト
- DST-Calib: A Dual-Path, Self-Supervised, Target-Free LiDAR-Camera Extrinsic Calibration Network [57.22935789233992]
本稿では,オンライン方式で動作するLiDARカメラ外装キャリブレーションネットワークについて紹介する。
提案手法は,一般化可能性の観点から既存手法を著しく上回っている。
論文 参考訳(メタデータ) (2026-01-03T13:57:01Z) - CalibRefine: Deep Learning-Based Online Automatic Targetless LiDAR-Camera Calibration with Iterative and Attention-Driven Post-Refinement [7.736775961390864]
CalibRefineは完全に自動化され、ターゲットレス、オンラインキャリブレーションフレームワークである。
生のLiDAR点雲とカメラ画像を直接処理する。
以上の結果から,頑健なオブジェクトレベルの特徴マッチングと反復的改善と自己監督的注意に基づく改善が組み合わさって,信頼性の高いセンサアライメントを実現することが示唆された。
論文 参考訳(メタデータ) (2025-02-24T20:53:42Z) - What Really Matters for Learning-based LiDAR-Camera Calibration [50.2608502974106]
本稿では,学習に基づくLiDAR-Cameraキャリブレーションの開発を再考する。
我々は、広く使われているデータ生成パイプラインによる回帰ベースの手法の限界を識別する。
また,入力データ形式と前処理操作がネットワーク性能に与える影響についても検討する。
論文 参考訳(メタデータ) (2025-01-28T14:12:32Z) - Multi-Modal Data-Efficient 3D Scene Understanding for Autonomous Driving [58.16024314532443]
我々は、異なるLiDARスキャンからレーザービーム操作を統合するフレームワークであるLaserMix++を導入し、データ効率の学習を支援するためにLiDAR-カメラ対応を組み込んだ。
結果は、LaserMix++が完全に教師付き代替よりも優れており、5倍のアノテーションで同等の精度を実現していることを示している。
この大幅な進歩は、LiDARベースの3Dシーン理解システムにおける広範囲なラベル付きデータへの依存を減らすための半教師付きアプローチの可能性を示している。
論文 参考訳(メタデータ) (2024-05-08T17:59:53Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。