論文の概要: Targetless 6DoF Calibration of LiDAR and 2D Scanning Radar Based on Cylindrical Occupancy
- arxiv url: http://arxiv.org/abs/2503.17002v1
- Date: Fri, 21 Mar 2025 10:09:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:55:50.734080
- Title: Targetless 6DoF Calibration of LiDAR and 2D Scanning Radar Based on Cylindrical Occupancy
- Title(参考訳): 円筒形状によるLiDARと2次元走査レーダのターゲットレス6DoF校正
- Authors: Weimin Wang, Yu Du, Ting Yang, Yu Liu,
- Abstract要約: LiRaCoは、LiDARとレーダーセンサーの外部6DoFキャリブレーションのためのターゲットレスキャリブレーションアプローチである。
LiRaCoは、LiDAR点雲とRadarスキャンの間の空間占有一貫性を共通円筒表現で活用する。
外部キャリブレーションパラメータを含むコスト関数は、3次元格子とLiDAR点の空間的重なりに基づいて定式化する。
- 参考スコア(独自算出の注目度): 8.895838973148452
- License:
- Abstract: Owing to the capability for reliable and all-weather long-range sensing, the fusion of LiDAR and Radar has been widely applied to autonomous vehicles for robust perception. In practical operation, well manually calibrated extrinsic parameters, which are crucial for the fusion of multi-modal sensors, may drift due to the vibration. To address this issue, we present a novel targetless calibration approach, termed LiRaCo, for the extrinsic 6DoF calibration of LiDAR and Radar sensors. Although both types of sensors can obtain geometric information, bridging the geometric correspondences between multi-modal data without any clues of explicit artificial markers is nontrivial, mainly due to the low vertical resolution of scanning Radar. To achieve the targetless calibration, LiRaCo leverages a spatial occupancy consistency between LiDAR point clouds and Radar scans in a common cylindrical representation, considering the increasing data sparsity with distance for both sensors. Specifically, LiRaCo expands the valid Radar scanned pixels into 3D occupancy grids to constrain LiDAR point clouds based on spatial consistency. Consequently, a cost function involving extrinsic calibration parameters is formulated based on the spatial overlap of 3D grids and LiDAR points. Extrinsic parameters are finally estimated by optimizing the cost function. Comprehensive quantitative and qualitative experiments on two real outdoor datasets with different LiDAR sensors demonstrate the feasibility and accuracy of the proposed method. The source code will be publicly available.
- Abstract(参考訳): 信頼性と全天候の長距離センシング能力のため、LiDARとRadarの融合は、堅牢な認識のために自動運転車に広く適用されてきた。
実用的には、マルチモーダルセンサの融合に欠かせない、手動で調整された外部パラメータが振動によってドリフトする可能性がある。
この問題に対処するために,LiDARとレーダーセンサの外部6DoFキャリブレーションのための,LiRaCoと呼ばれる新しいターゲットレスキャリブレーション手法を提案する。
どちらのセンサーも幾何学的情報を得ることができるが、スキャンレーダの低垂直分解能のため、明示的な人工マーカーの手がかりのないマルチモーダルデータ間の幾何学的対応をブリッジすることは容易ではない。
ターゲットレスキャリブレーションを実現するために、LiRaCoはLiDAR点雲とRadarスキャンの間の空間的占有率の整合性を利用して、両センサ間の距離によるデータ間隔の増加を考慮する。
特に、LiRaCoは、有効なRadarスキャンされたピクセルを3D占有グリッドに拡張し、空間整合性に基づいてLiDAR点雲を制約する。
その結果、3DグリッドとLiDAR点の空間的重なり合いに基づいて、外部校正パラメータを含むコスト関数を定式化する。
コスト関数を最適化することにより、外部パラメータを最終的に推定する。
異なるLiDARセンサを持つ2つの実屋外データセットの総合的定量的および定性的実験により,提案手法の有効性と精度が示された。
ソースコードは公開されます。
関連論文リスト
- TransRAD: Retentive Vision Transformer for Enhanced Radar Object Detection [6.163747364795787]
本稿では,新しい3次元レーダ物体検出モデルであるTransRADを提案する。
本研究では、ディープレーダオブジェクト検出における重複境界ボックスの共通問題を軽減するために、位置認識型NMSを提案する。
その結果,TransRADは2次元および3次元のレーダ検出タスクにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2025-01-29T20:21:41Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - Multi-Modal Data-Efficient 3D Scene Understanding for Autonomous Driving [58.16024314532443]
我々は、異なるLiDARスキャンからレーザービーム操作を統合するフレームワークであるLaserMix++を導入し、データ効率の学習を支援するためにLiDAR-カメラ対応を組み込んだ。
結果は、LaserMix++が完全に教師付き代替よりも優れており、5倍のアノテーションで同等の精度を実現していることを示している。
この大幅な進歩は、LiDARベースの3Dシーン理解システムにおける広範囲なラベル付きデータへの依存を減らすための半教師付きアプローチの可能性を示している。
論文 参考訳(メタデータ) (2024-05-08T17:59:53Z) - Better Monocular 3D Detectors with LiDAR from the Past [64.6759926054061]
カメラベースの3D検出器は、画像の奥行きのあいまいさのため、LiDARベースの検出器に比べて性能が劣ることが多い。
本研究では,未ラベルの歴史的LiDARデータを活用することにより,単分子3D検出器の改良を図る。
複数の最先端モデルやデータセットに対して,9.66ミリ秒の追加レイテンシとストレージコストの低い,一貫性と大幅なパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-04-08T01:38:43Z) - Robust 3D Object Detection from LiDAR-Radar Point Clouds via Cross-Modal
Feature Augmentation [7.364627166256136]
本稿では,点雲からの3次元物体検出のための新しい枠組みを提案する。
背骨の微細化と幻覚発生を同時に行うために,空間的および特徴的に複数のアライメントを導入する。
View-of-Delftデータセットの実験により,提案手法は,レーダとLiDARの両方のオブジェクト検出において,最先端(SOTA)手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-09-29T15:46:59Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - RaLiBEV: Radar and LiDAR BEV Fusion Learning for Anchor Box Free Object
Detection Systems [13.046347364043594]
自動運転では、LiDARとレーダーは環境認識に不可欠である。
最近の最先端の研究は、レーダーとLiDARの融合が悪天候の堅牢な検出につながることを明らかにしている。
鳥眼ビュー融合学習に基づくアンカーボックスフリー物体検出システムを提案する。
論文 参考訳(メタデータ) (2022-11-11T10:24:42Z) - LiDAR Distillation: Bridging the Beam-Induced Domain Gap for 3D Object
Detection [96.63947479020631]
多くの現実世界の応用において、大量生産されたロボットや車両が使用するLiDARポイントは通常、大規模な公開データセットよりもビームが少ない。
異なるLiDARビームによって誘導される領域ギャップをブリッジして3次元物体検出を行うLiDAR蒸留法を提案する。
論文 参考訳(メタデータ) (2022-03-28T17:59:02Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。