論文の概要: CLRNet: Targetless Extrinsic Calibration for Camera, Lidar and 4D Radar Using Deep Learning
- arxiv url: http://arxiv.org/abs/2603.15767v1
- Date: Mon, 16 Mar 2026 18:01:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:06.92749
- Title: CLRNet: Targetless Extrinsic Calibration for Camera, Lidar and 4D Radar Using Deep Learning
- Title(参考訳): CLRNet:ディープラーニングを用いたカメラ,ライダー,4次元レーダのためのターゲットレス外部校正
- Authors: Marcell Kegl, Andras Palffy, Csaba Benedek, Dariu M. Gavrila,
- Abstract要約: 本稿では,新しい多モードエンドツーエンドディープラーニング(DL)キャリブレーションネットワークであるCLRNetを提案する。
従来の最先端手法と比較してキャリブレーション精度が優れていることを示す。
- 参考スコア(独自算出の注目度): 4.316506818580031
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we address extrinsic calibration for camera, lidar, and 4D radar sensors. Accurate extrinsic calibration of radar remains a challenge due to the sparsity of its data. We propose CLRNet, a novel, multi-modal end-to-end deep learning (DL) calibration network capable of addressing joint camera-lidar-radar calibration, or pairwise calibration between any two of these sensors. We incorporate equirectangular projection, camera-based depth image prediction, additional radar channels, and leverage lidar with a shared feature space and loop closure loss. In extensive experiments using the View-of-Delft and Dual-Radar datasets, we demonstrate superior calibration accuracy compared to existing state-of-the-art methods, reducing both median translational and rotational calibration errors by at least 50%. Finally, we examine the domain transfer capabilities of the proposed network and baselines, when evaluating across datasets. The code will be made publicly available upon acceptance at: https://github.com/tudelft-iv.
- Abstract(参考訳): 本稿では,カメラ,ライダー,4Dレーダセンサの外部校正について述べる。
レーダーの正確な外部キャリブレーションは、そのデータの範囲が広いため、依然として課題である。
本稿では,共同カメラ・ライダー・レーダーキャリブレーション,あるいはこれら2つのセンサの相互キャリブレーションに対処可能な,新しい多モードエンドツーエンドディープラーニング(DL)キャリブレーションネットワークであるCLRNetを提案する。
我々は、等角射影、カメラベース深度画像予測、レーダーチャネルの追加、共有特徴空間とループ閉鎖損失を持つライダーを活用する。
View-of-Delft と Dual-Radar のデータセットを用いた広範な実験では、既存の最先端手法と比較してキャリブレーション精度が優れており、中央値の変換と回転のキャリブレーションの誤差を少なくとも50%低減している。
最後に、データセット間での評価において、提案するネットワークとベースラインのドメイン転送機能について検討する。
コードは https://github.com/tudelft-iv.com で公開される予定だ。
関連論文リスト
- 4D-CAAL: 4D Radar-Camera Calibration and Auto-Labeling for Autonomous Driving [28.84154696792842]
本研究では,4次元レーダカメラキャリブレーションと自動ラベリングのための統合フレームワークである4D-CAALを提案する。
我々は、チェッカーボード中心を最強のレーダー反射点と整列する頑健な対応マッチングアルゴリズムを開発した。
本稿では,センサのキャリブレーションを利用した自動ラベル付けパイプラインを提案し,アノテーションをカメラベースセグメンテーションからレーダポイントクラウドに転送する。
論文 参考訳(メタデータ) (2026-01-29T09:30:41Z) - UniCalib: Targetless LiDAR-Camera Calibration via Probabilistic Flow on Unified Depth Representations [30.56092814783138]
DF-Calibは, キャリブレーションをモード内深さ流量推定問題として再構成するLiDARカメラキャリブレーション法である。
DF-Calibは、カメラ画像から深度マップを推定し、疎LiDAR投影深度マップを完成させる。
本稿では,有効画素を優先する信頼性マップを導入し,深度フロー推定の精度を高めるために,知覚的に重み付けされたスパースフロー損失を提案する。
論文 参考訳(メタデータ) (2025-04-02T07:09:44Z) - RSAR: Restricted State Angle Resolver and Rotated SAR Benchmark [61.987291551925516]
単位円制限損失を組み込んで角度予測精度を向上させるユニットサイクルリゾルバを導入する。
提案手法は,既存の最先端教師あり手法の性能を効果的に向上させることができる。
UCRの助けを借りて、これまでで最大の多クラス回転SARオブジェクト検出データセットであるRSARをさらに注釈し、導入する。
論文 参考訳(メタデータ) (2025-01-08T11:41:47Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Continuous Online Extrinsic Calibration of Fisheye Camera and LiDAR [7.906477322731106]
高レベルの知覚機能を必要とする共通空間参照フレームにカメラとLiDARデータを融合するためには、正確な外部キャリブレーションが必要である。
連続的なオンライン外部キャリブレーションアルゴリズムは、センサーデータのみを使用して、車両の寿命中にカメラ-LiDARキャリブレーションの値を自動更新することができる。
本稿では,一般的な単眼深度推定ネットワークによって提供されるカメラ画像の深度推定と,外部キャリブレーションの最適化指標としてLiDAR点雲の幾何距離の相互情報を用いることを提案する。
論文 参考訳(メタデータ) (2023-06-22T23:16:31Z) - Real-time multiview data fusion for object tracking with RGBD sensors [4.68299658663016]
本稿では,赤緑色深度カメラ(RGBD)のマルチビュー設定により,移動体を正確に追跡する新しい手法を提案する。
まず,装着時に深度センサに発生する変化を除去する補正法を提案する。
次に,未知の車両動作を補正するセンサワイズフィルタリングシステムを提案する。
論文 参考訳(メタデータ) (2021-10-28T09:24:49Z) - Unsupervised Depth Completion with Calibrated Backprojection Layers [79.35651668390496]
画像とスパース点雲から深度を推定するディープニューラルネットワークアーキテクチャを提案する。
LIDARや他のレンジセンサーから得られるビデオストリームとそれに対応するスパース点雲と、カメラの固有のキャリブレーションパラメータを用いてトレーニングする。
推論時に、トレーニングに用いるものと異なるカメラの校正を、スパース点雲と1つの画像とともにネットワークへの入力として行う。
論文 参考訳(メタデータ) (2021-08-24T05:41:59Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。