論文の概要: CFEAR-Teach-and-Repeat: Fast and Accurate Radar-only Localization
- arxiv url: http://arxiv.org/abs/2603.06501v1
- Date: Fri, 06 Mar 2026 17:35:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:42.000725
- Title: CFEAR-Teach-and-Repeat: Fast and Accurate Radar-only Localization
- Title(参考訳): CFEAR-Teach-and-Repeat: 高速かつ高精度なレーダーのみの局所化
- Authors: Maximilian Hilger, Daniel Adolfsson, Ralf Becker, Henrik Andreasson, Achim J. Lilienthal,
- Abstract要約: 単一回転レーダを用いた教示・繰り返しローカライゼーションパイプラインCFEAR-TRを提案する。
本手法は,学習パスから保存したスキャンと,最近の生活のスライディングウインドウとを協調的に組み合わせることで,ローカライズする。
Boreasデータセットのホールドアウトテストシーケンスの実験では、CFEAR-TRが0.117mと0.096の精度でローカライズ可能であることが示された。
- 参考スコア(独自算出の注目度): 3.8878015902629977
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Reliable localization in prior maps is essential for autonomous navigation, particularly under adverse weather, where optical sensors may fail. We present CFEAR-TR, a teach-and-repeat localization pipeline using a single spinning radar, which is designed for easily deployable, lightweight, and robust navigation in adverse conditions. Our method localizes by jointly aligning live scans to both stored scans from the teach mapping pass, and to a sliding window of recent live keyframes. This ensures accurate and robust pose estimation across different seasons and weather phenomena. Radar scans are represented using a sparse set of oriented surface points, computed from Doppler-compensated measurements. The map is stored in a pose graph that is traversed during localization. Experiments on the held-out test sequences from the Boreas dataset show that CFEAR-TR can localize with an accuracy as low as 0.117 m and 0.096°, corresponding to improvements of up to 63% over the previous state of the art, while running efficiently at 29 Hz. These results substantially narrow the gap to lidar-level localization, particularly in heading estimation. We make the C++ implementation of our work available to the community.
- Abstract(参考訳): 先行マップの信頼性の高いローカライゼーションは、特に光学センサーが故障する悪天候下では、自律的なナビゲーションに不可欠である。
本稿では,単一回転レーダを用いた学習・反復型ローカライゼーションパイプラインCFEAR-TRを提案する。
提案手法は, 実写スキャンを学習パスから格納したスキャンと, 最新の実写キーフレームのスライディングウィンドウに共同でアライメントすることで, ローカライズを行う。
これにより、季節や気象現象によって正確でロバストなポーズが推定される。
レーダスキャンは、ドップラー補償測定から計算した、配向曲面点のスパースセットを用いて表現される。
地図は、ローカライゼーション中にトラバースされたポーズグラフに格納される。
Boreasデータセットのホールドアウトテストシーケンスの実験では、CFEAR-TRが精度0.117mと0.096°の精度でローカライズできることが示され、従来の最先端技術よりも最大63%改善され、効率は29Hzに向上した。
これらの結果は,特に方向推定において,ライダーレベルの局所化とのギャップを著しく狭めている。
作業のC++実装をコミュニティに公開しています。
関連論文リスト
- Loc$^2$: Interpretable Cross-View Localization via Depth-Lifted Local Feature Matching [80.57282092735991]
本稿では,高精度かつ解釈可能なクロスビューローカライズ手法を提案する。
地上画像の3自由度(DoF)のポーズを、その局所的な特徴と基準空中画像とをマッチングすることによって推定する。
実験では、クロスエリアテストや未知の向きといった挑戦的なシナリオにおいて、最先端の精度を示す。
論文 参考訳(メタデータ) (2025-09-11T18:52:16Z) - TacoDepth: Towards Efficient Radar-Camera Depth Estimation with One-stage Fusion [54.46664104437454]
一段核融合を用いた効率的かつ正確なレーダ・カメラ深度推定モデルであるTacoDepthを提案する。
具体的には、グラフベースのRadar構造抽出器とピラミッドベースのRadar融合モジュールを設計する。
従来の最先端のアプローチと比較して、TacoDepthは深さ精度と処理速度を12.8%、91.8%改善している。
論文 参考訳(メタデータ) (2025-04-16T05:25:04Z) - Deep Homography Estimation for Visual Place Recognition [49.235432979736395]
本稿では,変換器を用いたディープホモグラフィー推定(DHE)ネットワークを提案する。
バックボーンネットワークによって抽出された濃密な特徴写像を入力とし、高速で学習可能な幾何的検証のためにホモグラフィーに適合する。
ベンチマークデータセットを用いた実験により,本手法はいくつかの最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-25T13:22:17Z) - Pointing the Way: Refining Radar-Lidar Localization Using Learned ICP Weights [10.613476233222347]
高レベルスキャン情報に基づいてレーダポイントを重み付けする学習前処理ステップを含むICPベースのレーダライダーローカライゼーションを構築した。
重み付けネットワークをトレーニングするために,新しい,スタンドアローンでオープンソースの差別化可能なICPライブラリを提案する。
論文 参考訳(メタデータ) (2023-09-15T19:37:58Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - Real-time Outdoor Localization Using Radio Maps: A Deep Learning
Approach [59.17191114000146]
LocUNet: ローカライゼーションタスクのための畳み込み、エンドツーエンドのトレーニングニューラルネットワーク(NN)。
我々は,LocUNetがユーザを最先端の精度でローカライズし,無線マップ推定における不正確性が高いことを示す。
論文 参考訳(メタデータ) (2021-06-23T17:27:04Z) - CodeVIO: Visual-Inertial Odometry with Learned Optimizable Dense Depth [83.77839773394106]
本稿では,軽量で密結合の深い深度ネットワークと視覚慣性オドメトリーシステムを提案する。
我々は、初期深度予測の精度を高めるために、以前にVIOから切り離されたスパース特徴を持つネットワークを提供する。
本稿では,ネットワークとコードヤコビアンでのみGPUアクセラレーションを活用しながら,シングルスレッド実行でリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-12-18T09:42:54Z) - RaLL: End-to-end Radar Localization on Lidar Map Using Differentiable
Measurement Model [14.155337185792279]
ライダーマップ(RaLL)上でのレーダローカライゼーションのためのエンドツーエンドディープラーニングフレームワークを提案する。
RaLLは成熟ライダーマッピング技術を利用しており、レーダマッピングのコストを低減している。
提案システムは,英国におけるモデルトレーニングの一般化シナリオにおいても,90km以上の運転性能を実現する。
論文 参考訳(メタデータ) (2020-09-15T13:13:38Z) - Under the Radar: Learning to Predict Robust Keypoints for Odometry
Estimation and Metric Localisation in Radar [26.382149876115918]
我々はOxford Radar RobotCarデータセットから実世界の280kmの走行実験を行った。
点ベースレーダオードメトリーの最先端性を改善し,誤差を最大45%低減する。
都市環境におけるレーダによる完全なマッピングとローカライズが可能なフレームワークを提供する。
論文 参考訳(メタデータ) (2020-01-29T12:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。