論文の概要: Open-RadVLAD: Fast and Robust Radar Place Recognition
- arxiv url: http://arxiv.org/abs/2401.15380v2
- Date: Sat, 2 Mar 2024 11:23:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 19:54:02.334986
- Title: Open-RadVLAD: Fast and Robust Radar Place Recognition
- Title(参考訳): Open-RadVLAD:高速かつロバストなレーダー位置認識
- Authors: Matthew Gadd, Paul Newman
- Abstract要約: レーダー位置認識は、しばしばライブスキャンをベクトルとして符号化し、車両が以前訪れた場所にあることを認識するために、このベクトルをデータベースにマッチさせる。
360度のレーダーでは、回転は方位を横切ることで容易に処理される。
計算効率は極表現のみを用いる。
- 参考スコア(独自算出の注目度): 18.27692163756045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Radar place recognition often involves encoding a live scan as a vector and
matching this vector to a database in order to recognise that the vehicle is in
a location that it has visited before. Radar is inherently robust to lighting
or weather conditions, but place recognition with this sensor is still affected
by: (1) viewpoint variation, i.e. translation and rotation, (2) sensor
artefacts or "noises". For 360-degree scanning radar, rotation is readily dealt
with by in some way aggregating across azimuths. Also, we argue in this work
that it is more critical to deal with the richness of representation and sensor
noises than it is to deal with translational invariance - particularly in urban
driving where vehicles predominantly follow the same lane when repeating a
route. In our method, for computational efficiency, we use only the polar
representation. For partial translation invariance and robustness to signal
noise, we use only a one-dimensional Fourier Transform along radial returns. We
also achieve rotational invariance and a very discriminative descriptor space
by building a vector of locally aggregated descriptors. Our method is more
comprehensively tested than all prior radar place recognition work - over an
exhaustive combination of all 870 pairs of trajectories from 30 Oxford Radar
RobotCar Dataset sequences (each approximately 10 km). Code and detailed
results are provided at github.com/mttgdd/open-radvlad, as an open
implementation and benchmark for future work in this area. We achieve a median
of 91.52% in Recall@1, outstripping the 69.55% for the only other open
implementation, RaPlace, and at a fraction of its computational cost (relying
on fewer integral transforms e.g. Radon, Fourier, and inverse Fourier).
- Abstract(参考訳): レーダー位置認識は、しばしばライブスキャンをベクトルとして符号化し、車両が以前訪れた場所にあることを認識するために、このベクトルをデータベースにマッチさせる。
レーダーは本質的に照明や気象条件に頑健であるが、このセンサーによる位置認識は、(1)視点の変化、すなわち翻訳と回転、(2)センサアーティファクトや「ノイズ」に影響されている。
360度スキャニングレーダの場合、回転は何らかの方法で方位を集約することで容易に処理される。
また、本研究では、特に道路を繰り返すときに主に車両が同じ車線をたどる都市運転において、翻訳的不変性を扱うよりも、表現とセンサノイズの豊かさを扱うことがより重要であると論じている。
計算効率の面では極性表現のみを用いる。
信号雑音に対する部分的変換不変性とロバスト性のためには、ラジアルリターンに沿って1次元フーリエ変換のみを用いる。
また,局所集計ディスクリプタのベクトルを構築することにより,回転不変性と非常に識別的なディスクリプタ空間を実現する。
我々の手法は、オックスフォード・レーダー・ロボットカー・データセット(約10km)の870対の軌道を網羅的に組み合わせて、従来の全てのレーダー位置認識作業よりも包括的にテストされている。
コードと詳細な結果はgithub.com/mttgdd/open-radvladで提供されている。
Recall@1 では 91.52% の中央値を実現し、他のオープン実装である RaPlace の69.55% を上回り、計算コストのごく一部(例えば Radon, Fourier, inverse Fourier など)を上回ります。
関連論文リスト
- SparseRadNet: Sparse Perception Neural Network on Subsampled Radar Data [5.344444942640663]
レーダー生データは、しばしば過剰なノイズを含むが、レーダー点雲は限られた情報しか保持しない。
本稿では,適応的なサブサンプリング手法と,空間パターンを利用したネットワークアーキテクチャを提案する。
RADIalデータセットの実験により,SparseRadNetはオブジェクト検出における最先端(SOTA)性能を超え,自由空間セグメンテーションにおけるSOTA精度に近づいた。
論文 参考訳(メタデータ) (2024-06-15T11:26:10Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Radio Map Estimation -- An Open Dataset with Directive Transmitter
Antennas and Initial Experiments [49.61405888107356]
実世界の現実的な都市地図とオープンなデータソースからの航空画像とともに、シミュレーションされた経路損失無線マップのデータセットをリリースする。
モデルアーキテクチャ,入力特徴設計,航空画像からの無線マップの推定に関する実験を行った。
論文 参考訳(メタデータ) (2024-01-12T14:56:45Z) - TransRadar: Adaptive-Directional Transformer for Real-Time Multi-View
Radar Semantic Segmentation [21.72892413572166]
本稿では,レーダデータの多入力融合を用いたレーダシーンのセマンティックセマンティックセマンティクスへの新しいアプローチを提案する。
提案手法であるTransRadarは,CARRADAとRADIalのデータセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-10-03T17:59:05Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - Raw High-Definition Radar for Multi-Task Learning [0.0]
本研究では、レンジ・アジマス・ドップラー3Dテンソルの計算オーバーヘッドを解消する新しいHDレーダセンシングモデルFFT-RadNetを提案する。
FFT-RadNetは車両の検知と自由運転スペースの分断のために訓練されている。
どちらのタスクでも、最新のレーダベースのモデルと競合するが、計算量やメモリは少ない。
論文 参考訳(メタデータ) (2021-12-20T16:15:26Z) - Contrastive Learning for Unsupervised Radar Place Recognition [31.04172735067443]
我々は、複雑なレーダデータを用いて、位置認識問題を解決するのに適したレーダ画像のシーケンスから、教師なしの方法で埋め込みを学習する。
我々は400km以上の走行が可能な2つの著名な都市レーダデータセットを実験し、新しいレーダ位置認識状態を実現することを示す。
論文 参考訳(メタデータ) (2021-10-06T13:34:09Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。