論文の概要: RaLF: Flow-based Global and Metric Radar Localization in LiDAR Maps
- arxiv url: http://arxiv.org/abs/2309.09875v1
- Date: Mon, 18 Sep 2023 15:37:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 12:43:08.230407
- Title: RaLF: Flow-based Global and Metric Radar Localization in LiDAR Maps
- Title(参考訳): RaLF: LiDARマップにおけるフローベースグローバルおよびメトリックレーダの局在
- Authors: Abhijeet Nayak, Daniele Cattaneo, Abhinav Valada
- Abstract要約: 我々は、環境のLiDARマップにレーダースキャンをローカライズするための、新しいディープニューラルネットワークベースのアプローチであるRaLFを提案する。
RaLFは、レーダーとLiDAR機能エンコーダ、グローバルなディスクリプタを生成する場所認識ヘッド、レーダースキャンとマップ間の3DF変換を予測するメートル法ローカライゼーションヘッドで構成されている。
複数の実世界の運転データセットに対する我々のアプローチを広く評価し、RaLFが位置認識とメートル法ローカライゼーションの両方において最先端のパフォーマンスを達成することを示す。
- 参考スコア(独自算出の注目度): 9.693729708337125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Localization is paramount for autonomous robots. While camera and LiDAR-based
approaches have been extensively investigated, they are affected by adverse
illumination and weather conditions. Therefore, radar sensors have recently
gained attention due to their intrinsic robustness to such conditions. In this
paper, we propose RaLF, a novel deep neural network-based approach for
localizing radar scans in a LiDAR map of the environment, by jointly learning
to address both place recognition and metric localization. RaLF is composed of
radar and LiDAR feature encoders, a place recognition head that generates
global descriptors, and a metric localization head that predicts the 3-DoF
transformation between the radar scan and the map. We tackle the place
recognition task by learning a shared embedding space between the two
modalities via cross-modal metric learning. Additionally, we perform metric
localization by predicting pixel-level flow vectors that align the query radar
scan with the LiDAR map. We extensively evaluate our approach on multiple
real-world driving datasets and show that RaLF achieves state-of-the-art
performance for both place recognition and metric localization. Moreover, we
demonstrate that our approach can effectively generalize to different cities
and sensor setups than the ones used during training. We make the code and
trained models publicly available at http://ralf.cs.uni-freiburg.de.
- Abstract(参考訳): 自律ロボットにとってローカライズが最優先だ。
カメラとLiDARに基づくアプローチは広く研究されているが、悪照明や気象条件の影響を受けている。
そのため、レーダーセンサはそのような条件に固有のロバスト性のため、近年注目されている。
本稿では,環境のLiDARマップにレーダースキャンをローカライズするための,新しいディープニューラルネットワークに基づくアプローチであるRaLFを提案する。
RaLFは、レーダーとLiDAR機能エンコーダ、グローバルなディスクリプタを生成する場所認識ヘッド、レーダースキャンとマップ間の3DF変換を予測するメートル法ローカライゼーションヘッドで構成されている。
クロスモーダルメトリック学習を通じて,2つのモダリティ間の共有埋め込み空間を学習することで,位置認識タスクに取り組む。
さらに,クエリレーダスキャンとlidarマップを整合させたピクセルレベルフローベクトルを予測し,メトリックローカライズを行う。
複数の実世界の運転データセットに対する我々のアプローチを広く評価し、RaLFが位置認識とメートル法ローカライゼーションの両方において最先端のパフォーマンスを達成することを示す。
さらに,本手法は,訓練中に使用するものと異なる都市やセンサに効果的に一般化できることを実証した。
コードとトレーニングされたモデルをhttp://ralf.cs.uni-freiburg.deで公開しています。
関連論文リスト
- SparseRadNet: Sparse Perception Neural Network on Subsampled Radar Data [5.344444942640663]
レーダー生データは、しばしば過剰なノイズを含むが、レーダー点雲は限られた情報しか保持しない。
本稿では,適応的なサブサンプリング手法と,空間パターンを利用したネットワークアーキテクチャを提案する。
RADIalデータセットの実験により,SparseRadNetはオブジェクト検出における最先端(SOTA)性能を超え,自由空間セグメンテーションにおけるSOTA精度に近づいた。
論文 参考訳(メタデータ) (2024-06-15T11:26:10Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Pointing the Way: Refining Radar-Lidar Localization Using Learned ICP Weights [10.613476233222347]
高レベルスキャン情報に基づいてレーダポイントを重み付けする学習前処理ステップを含むICPベースのレーダライダーローカライゼーションを構築した。
重み付けネットワークをトレーニングするために,新しい,スタンドアローンでオープンソースの差別化可能なICPライブラリを提案する。
論文 参考訳(メタデータ) (2023-09-15T19:37:58Z) - UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - Large-Scale Topological Radar Localization Using Learned Descriptors [15.662820454886202]
本稿では、レーダースキャン画像から回転不変なグローバルディスクリプタを計算するための、単純かつ効率的なディープネットワークアーキテクチャを提案する。
提案手法の性能と一般化能力を2つの大規模運転データセットで実験的に評価した。
論文 参考訳(メタデータ) (2021-10-06T21:57:23Z) - Real-time Outdoor Localization Using Radio Maps: A Deep Learning
Approach [59.17191114000146]
LocUNet: ローカライゼーションタスクのための畳み込み、エンドツーエンドのトレーニングニューラルネットワーク(NN)。
我々は,LocUNetがユーザを最先端の精度でローカライズし,無線マップ推定における不正確性が高いことを示す。
論文 参考訳(メタデータ) (2021-06-23T17:27:04Z) - Improved Radar Localization on Lidar Maps Using Shared Embedding [12.65429845365685]
本稿では,レーダグローバルローカライゼーションを解くためのフレームワークと,事前に構築したライダーマップ上でのポーズトラッキングを提案する。
ディープニューラルネットワークは、レーダースキャンとライダーマップのための共有埋め込みスペースを作成するために構築されている。
論文 参考訳(メタデータ) (2021-06-18T08:40:04Z) - RaLL: End-to-end Radar Localization on Lidar Map Using Differentiable
Measurement Model [14.155337185792279]
ライダーマップ(RaLL)上でのレーダローカライゼーションのためのエンドツーエンドディープラーニングフレームワークを提案する。
RaLLは成熟ライダーマッピング技術を利用しており、レーダマッピングのコストを低減している。
提案システムは,英国におけるモデルトレーニングの一般化シナリオにおいても,90km以上の運転性能を実現する。
論文 参考訳(メタデータ) (2020-09-15T13:13:38Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。