論文の概要: 4D-CAAL: 4D Radar-Camera Calibration and Auto-Labeling for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2601.21454v1
- Date: Thu, 29 Jan 2026 09:30:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.700471
- Title: 4D-CAAL: 4D Radar-Camera Calibration and Auto-Labeling for Autonomous Driving
- Title(参考訳): 4D-CAAL:自律走行のための4Dレーダカメラキャリブレーションとオートラベル
- Authors: Shanliang Yao, Zhuoxiao Li, Runwei Guan, Kebin Cao, Meng Xia, Fuping Hu, Sen Xu, Yong Yue, Xiaohui Zhu, Weiping Ding, Ryan Wen Liu,
- Abstract要約: 本研究では,4次元レーダカメラキャリブレーションと自動ラベリングのための統合フレームワークである4D-CAALを提案する。
我々は、チェッカーボード中心を最強のレーダー反射点と整列する頑健な対応マッチングアルゴリズムを開発した。
本稿では,センサのキャリブレーションを利用した自動ラベル付けパイプラインを提案し,アノテーションをカメラベースセグメンテーションからレーダポイントクラウドに転送する。
- 参考スコア(独自算出の注目度): 28.84154696792842
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 4D radar has emerged as a critical sensor for autonomous driving, primarily due to its enhanced capabilities in elevation measurement and higher resolution compared to traditional 3D radar. Effective integration of 4D radar with cameras requires accurate extrinsic calibration, and the development of radar-based perception algorithms demands large-scale annotated datasets. However, existing calibration methods often employ separate targets optimized for either visual or radar modalities, complicating correspondence establishment. Furthermore, manually labeling sparse radar data is labor-intensive and unreliable. To address these challenges, we propose 4D-CAAL, a unified framework for 4D radar-camera calibration and auto-labeling. Our approach introduces a novel dual-purpose calibration target design, integrating a checkerboard pattern on the front surface for camera detection and a corner reflector at the center of the back surface for radar detection. We develop a robust correspondence matching algorithm that aligns the checkerboard center with the strongest radar reflection point, enabling accurate extrinsic calibration. Subsequently, we present an auto-labeling pipeline that leverages the calibrated sensor relationship to transfer annotations from camera-based segmentations to radar point clouds through geometric projection and multi-feature optimization. Extensive experiments demonstrate that our method achieves high calibration accuracy while significantly reducing manual annotation effort, thereby accelerating the development of robust multi-modal perception systems for autonomous driving.
- Abstract(参考訳): 4Dレーダーは、従来の3Dレーダーと比較して高度測定と高解像度の能力の強化が主な原因で、自動運転にとって重要なセンサーとして登場した。
4Dレーダとカメラを効果的に統合するには、正確な外部キャリブレーションが必要であり、レーダベースの認識アルゴリズムの開発には、大規模なアノテートデータセットが必要である。
しかし、既存のキャリブレーション手法では、視覚的またはレーダー的モダリティに最適化された異なるターゲットをしばしば採用し、対応の確立を複雑にしている。
さらに、スパースレーダデータを手動でラベル付けすることは、労働集約的で信頼性に欠ける。
これらの課題に対処するため、我々は4Dレーダカメラキャリブレーションと自動ラベリングのための統合されたフレームワークである4D-CAALを提案する。
本手法では, カメラ検出用フロント面にチェッカーボードパターンと, レーダ検出用裏面中央のコーナーリフレクタを一体化して, 新たな2目的キャリブレーションターゲット設計を提案する。
我々は,チェッカーボード中心を最強のレーダー反射点と整列する頑健な対応マッチングアルゴリズムを開発し,精度の高い外部キャリブレーションを実現する。
次に,センサの校正関係を利用して,幾何学的プロジェクションと多機能最適化により,カメラベースセグメンテーションからレーダ点雲へのアノテーションの転送を行う自動ラベルパイプラインを提案する。
広範囲な実験により,本手法は高い校正精度を実現し,手動のアノテーション処理を著しく削減し,自律運転のための頑健なマルチモーダル認識システムの開発を加速することを示した。
関連論文リスト
- DST-Calib: A Dual-Path, Self-Supervised, Target-Free LiDAR-Camera Extrinsic Calibration Network [57.22935789233992]
本稿では,オンライン方式で動作するLiDARカメラ外装キャリブレーションネットワークについて紹介する。
提案手法は,一般化可能性の観点から既存手法を著しく上回っている。
論文 参考訳(メタデータ) (2026-01-03T13:57:01Z) - RadarGen: Automotive Radar Point Cloud Generation from Cameras [64.69976771710057]
マルチビューカメラ画像からリアルな自動車用レーダー点雲を合成するための拡散モデルRadarGenを提案する。
RadarGenは、鳥の目視でレーダー計測を表現することで、レーダ領域への効率的な画像遅延拡散を適応する。
本稿では,RadarGenが特徴的レーダ計測分布を捕捉し,実データに基づいて学習した知覚モデルとのギャップを小さくすることを示す。
論文 参考訳(メタデータ) (2025-12-19T18:57:33Z) - TacoDepth: Towards Efficient Radar-Camera Depth Estimation with One-stage Fusion [54.46664104437454]
一段核融合を用いた効率的かつ正確なレーダ・カメラ深度推定モデルであるTacoDepthを提案する。
具体的には、グラフベースのRadar構造抽出器とピラミッドベースのRadar融合モジュールを設計する。
従来の最先端のアプローチと比較して、TacoDepthは深さ精度と処理速度を12.8%、91.8%改善している。
論文 参考訳(メタデータ) (2025-04-16T05:25:04Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - RadarOcc: Robust 3D Occupancy Prediction with 4D Imaging Radar [15.776076554141687]
3D占有に基づく知覚パイプラインは、かなり進歩した自律運転を持つ。
現在の方法では、LiDARやカメラの入力を3D占有率予測に頼っている。
本稿では,4次元イメージングレーダセンサを用いた3次元占有予測手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T21:48:17Z) - MVFAN: Multi-View Feature Assisted Network for 4D Radar Object Detection [15.925365473140479]
4Dレーダーは、悪天候下での弾力性と費用対効果が認められている。
LiDARやカメラとは異なり、レーダーは厳しい気象条件で損傷を受けないままである。
本稿では,自律走行車のためのレーダーによる3次元物体検出手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T06:10:07Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。