論文の概要: RadarLoc: Learning to Relocalize in FMCW Radar
- arxiv url: http://arxiv.org/abs/2103.11562v1
- Date: Mon, 22 Mar 2021 03:22:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:21:31.362840
- Title: RadarLoc: Learning to Relocalize in FMCW Radar
- Title(参考訳): RadarLoc: FMCW Radarで再ローカライズを学ぶ
- Authors: Wei Wang, Pedro P. B. de Gusmo, Bo Yang, Andrew Markham, and Niki
Trigoni
- Abstract要約: 6-DoFのグローバルポーズを直接推定できる,自己アテンションを備えた新しいエンドツーエンドニューラルネットワークであるRadarLocを提案する。
我々は最近リリースされた屋外データセットOxford Radar RobotCarに対するアプローチを検証する。
- 参考スコア(独自算出の注目度): 36.68888832365474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Relocalization is a fundamental task in the field of robotics and computer
vision. There is considerable work in the field of deep camera relocalization,
which directly estimates poses from raw images. However, learning-based methods
have not yet been applied to the radar sensory data. In this work, we
investigate how to exploit deep learning to predict global poses from Emerging
Frequency-Modulated Continuous Wave (FMCW) radar scans. Specifically, we
propose a novel end-to-end neural network with self-attention, termed RadarLoc,
which is able to estimate 6-DoF global poses directly. We also propose to
improve the localization performance by utilizing geometric constraints between
radar scans. We validate our approach on the recently released challenging
outdoor dataset Oxford Radar RobotCar. Comprehensive experiments demonstrate
that the proposed method outperforms radar-based localization and deep camera
relocalization methods by a significant margin.
- Abstract(参考訳): 再局在化はロボット工学とコンピュータビジョンの分野における基本的な課題である。
ディープカメラの再ローカライズの分野では、生の画像から直接ポーズを推定する作業がかなり行われている。
しかし,レーダーセンサデータには学習に基づく手法は適用されていない。
本研究では,FMCW(Emerging Frequency-Modulated Continuous Wave)レーダースキャンを用いて,ディープラーニングを利用してグローバルなポーズを予測する方法について検討する。
具体的には、6-DoFグローバルポーズを直接推定できる自己注意型ニューラルネットワークRadarLocを提案する。
また,レーダスキャン間の幾何的制約を利用して局所化性能を向上させることを提案する。
我々は最近リリースされた屋外データセットOxford Radar RobotCarに対するアプローチを検証する。
包括的実験により,提案手法はレーダーによる位置推定とディープカメラ再位置推定を著しく上回ることを示した。
関連論文リスト
- TransRadar: Adaptive-Directional Transformer for Real-Time Multi-View
Radar Semantic Segmentation [21.72892413572166]
本稿では,レーダデータの多入力融合を用いたレーダシーンのセマンティックセマンティックセマンティクスへの新しいアプローチを提案する。
提案手法であるTransRadarは,CARRADAとRADIalのデータセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-10-03T17:59:05Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - RadarFormer: Lightweight and Accurate Real-Time Radar Object Detection
Model [13.214257841152033]
レーダー中心のデータセットは、レーダー知覚のためのディープラーニング技術の開発にはあまり注目されていない。
本稿では,視覚深層学習における最先端技術を活用したトランスフォーマーモデルRadarFormerを提案する。
また、チャネルチャープ時マージモジュールを導入し、精度を損なうことなく、モデルのサイズと複雑さを10倍以上に削減する。
論文 参考訳(メタデータ) (2023-04-17T17:07:35Z) - Unsupervised Domain Adaptation across FMCW Radar Configurations Using
Margin Disparity Discrepancy [17.464353263281907]
本研究では、ディープラーニングの人間活動分類の文脈において、レーダー構成にまたがる非教師なし領域適応の問題を考える。
我々は、コンピュータビジョンの分野ですでに成功している、Margin Disparity Discrepancyの理論に触発されたテクニックに焦点を当てた。
我々の実験は、この手法をレーダーデータに拡張し、同じ分類問題に対する少数ショット教師付きアプローチに匹敵する精度を達成した。
論文 参考訳(メタデータ) (2022-03-09T09:11:06Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - Rethinking of Radar's Role: A Camera-Radar Dataset and Systematic
Annotator via Coordinate Alignment [38.24705460170415]
CRUWと呼ばれる新しいデータセットを体系的なアノテーションとパフォーマンス評価システムで提案する。
CRUWは、レーダーの無線周波数(RF)画像から3Dのオブジェクトを純粋に分類し、ローカライズすることを目指しています。
私たちの知る限り、CRUWは体系的なアノテーションと評価システムを備えた最初の公開大規模データセットです。
論文 参考訳(メタデータ) (2021-05-11T17:13:45Z) - Radar Artifact Labeling Framework (RALF): Method for Plausible Radar
Detections in Datasets [2.5899040911480187]
粗いレーダ点雲のラベル付けのためのクロスセンサレーダアーチファクトラベルフレームワーク(RALF)を提案する。
RALFは、レーダーの生検出のための可視性ラベルを提供し、アーティファクトとターゲットを区別する。
半手動ラベル付き地上真理データセットの3.28cdot106$ポイントの誤差測定値を評価することにより,結果を検証する。
論文 参考訳(メタデータ) (2020-12-03T15:11:31Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - Depth Estimation from Monocular Images and Sparse Radar Data [93.70524512061318]
本稿では,ディープニューラルネットワークを用いた単眼画像とレーダ点の融合により,より正確な深度推定を実現する可能性を検討する。
レーダ測定で発生するノイズが,既存の融合法の適用を妨げている主要な理由の1つであることが判明した。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
論文 参考訳(メタデータ) (2020-09-30T19:01:33Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。