論文の概要: RLPR: Radar-to-LiDAR Place Recognition via Two-Stage Asymmetric Cross-Modal Alignment for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2603.07920v1
- Date: Mon, 09 Mar 2026 03:28:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.404194
- Title: RLPR: Radar-to-LiDAR Place Recognition via Two-Stage Asymmetric Cross-Modal Alignment for Autonomous Driving
- Title(参考訳): RLPR: 自律走行のための2段階非対称なクロスモーダルアライメントによるレーダー対LiDAR位置認識
- Authors: Zhangshuo Qi, Jingyi Xu, Luqi Cheng, Shichen Wen, Guangming Xiong,
- Abstract要約: Radar-to-LiDARの位置認識は、既存のLiDARマップ内のレーダースキャンをローカライズすることができる。
RLPRは、単一チップ、走査、および4Dレーダと互換性のある堅牢なレーダー対LiDAR位置認識フレームワークである。
4つのデータセットの実験により、RLPRは強力なゼロショット一般化能力で認識精度を達成することが示された。
- 参考スコア(独自算出の注目度): 14.25906590501402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: All-weather autonomy is critical for autonomous driving, which necessitates reliable localization across diverse scenarios. While LiDAR place recognition is widely deployed for this task, its performance degrades in adverse weather. Conversely, radar-based methods, though weather-resilient, are hindered by the general unavailability of radar maps. To bridge this gap, radar-to-LiDAR place recognition, which localizes radar scans within existing LiDAR maps, has garnered increasing interest. However, extracting discriminative and generalizable features shared between modalities remains challenging, compounded by the scarcity of large-scale paired training data and the signal heterogeneity across radar types. In this work, we propose RLPR, a robust radar-to-LiDAR place recognition framework compatible with single-chip, scanning, and 4D radars. We first design a dual-stream network to extract structural features that abstract away from sensor-specific signal properties (e.g., Doppler or RCS). Subsequently, motivated by our task-specific asymmetry observation between radar and LiDAR, we introduce a two-stage asymmetric cross-modal alignment (TACMA) strategy, which leverages the pre-trained radar branch as a discriminative anchor to guide the alignment process. Experiments on four datasets demonstrate that RLPR achieves state-of-the-art recognition accuracy with strong zero-shot generalization capabilities.
- Abstract(参考訳): 全天候の自律性は、さまざまなシナリオにまたがる信頼性の高いローカライゼーションを必要とする自律運転に不可欠である。
LiDARの位置認識はこのタスクのために広く展開されているが、その性能は悪天候下で低下する。
逆に、レーダベースの手法は、耐候性はあるものの、レーダマップの一般的な利用不可能によって妨げられている。
このギャップを埋めるために、既存のLiDARマップ内のレーダースキャンをローカライズするRadar-to-LiDARの位置認識が注目されている。
しかし、大規模なペアリングトレーニングデータの不足とレーダータイプ間の信号の不均一性により、モダリティ間で共有される識別的・一般化可能な特徴の抽出は依然として困難である。
本研究では,シングルチップ,スキャニング,4Dレーダと互換性のあるロバストレーダ対LiDAR位置認識フレームワークであるRLPRを提案する。
まず、センサ固有の信号特性(例えばドップラーやRCS)を抽象化する構造的特徴を抽出するために、デュアルストリームネットワークを設計する。
その後、レーダーとLiDARのタスク特異的な非対称性観測により、事前訓練されたレーダー分岐を識別アンカーとして利用し、アライメントプロセスを誘導する2段階の非対称非対称アライメント(TACMA)戦略を導入する。
4つのデータセットの実験により、RLPRは強いゼロショットの一般化能力で最先端の認識精度を達成することが示された。
関連論文リスト
- RadarGen: Automotive Radar Point Cloud Generation from Cameras [64.69976771710057]
マルチビューカメラ画像からリアルな自動車用レーダー点雲を合成するための拡散モデルRadarGenを提案する。
RadarGenは、鳥の目視でレーダー計測を表現することで、レーダ領域への効率的な画像遅延拡散を適応する。
本稿では,RadarGenが特徴的レーダ計測分布を捕捉し,実データに基づいて学習した知覚モデルとのギャップを小さくすることを示す。
論文 参考訳(メタデータ) (2025-12-19T18:57:33Z) - LRFusionPR: A Polar BEV-Based LiDAR-Radar Fusion Network for Place Recognition [2.77989705536351]
自律運転においては、位置認識はGPSを用いた環境におけるグローバルな位置決めに不可欠である。
本稿では,LiDARを単一チップまたは走査型レーダーで融合させることにより,認識精度とロバスト性を向上させるLRFusionPRを提案する。
論文 参考訳(メタデータ) (2025-04-27T10:20:32Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - RaLF: Flow-based Global and Metric Radar Localization in LiDAR Maps [8.625083692154414]
我々は、環境のLiDARマップにレーダースキャンをローカライズするための、新しいディープニューラルネットワークベースのアプローチであるRaLFを提案する。
RaLFは、レーダーとLiDAR機能エンコーダ、グローバルなディスクリプタを生成する場所認識ヘッド、レーダースキャンとマップ間の3DF変換を予測するメートル法ローカライゼーションヘッドで構成されている。
複数の実世界の運転データセットに対する我々のアプローチを広く評価し、RaLFが位置認識とメートル法ローカライゼーションの両方において最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-09-18T15:37:01Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。