論文の概要: RadarFormer: Lightweight and Accurate Real-Time Radar Object Detection
Model
- arxiv url: http://arxiv.org/abs/2304.08447v1
- Date: Mon, 17 Apr 2023 17:07:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 14:13:18.701789
- Title: RadarFormer: Lightweight and Accurate Real-Time Radar Object Detection
Model
- Title(参考訳): RadarFormer:軽量かつ高精度なリアルタイムレーダ物体検出モデル
- Authors: Yahia Dalbah, Jean Lahoud, Hisham Cholakkal
- Abstract要約: レーダー中心のデータセットは、レーダー知覚のためのディープラーニング技術の開発にはあまり注目されていない。
本稿では,視覚深層学習における最先端技術を活用したトランスフォーマーモデルRadarFormerを提案する。
また、チャネルチャープ時マージモジュールを導入し、精度を損なうことなく、モデルのサイズと複雑さを10倍以上に削減する。
- 参考スコア(独自算出の注目度): 13.214257841152033
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The performance of perception systems developed for autonomous driving
vehicles has seen significant improvements over the last few years. This
improvement was associated with the increasing use of LiDAR sensors and point
cloud data to facilitate the task of object detection and recognition in
autonomous driving. However, LiDAR and camera systems show deteriorating
performances when used in unfavorable conditions like dusty and rainy weather.
Radars on the other hand operate on relatively longer wavelengths which allows
for much more robust measurements in these conditions. Despite that,
radar-centric data sets do not get a lot of attention in the development of
deep learning techniques for radar perception. In this work, we consider the
radar object detection problem, in which the radar frequency data is the only
input into the detection framework. We further investigate the challenges of
using radar-only data in deep learning models. We propose a transformers-based
model, named RadarFormer, that utilizes state-of-the-art developments in vision
deep learning. Our model also introduces a channel-chirp-time merging module
that reduces the size and complexity of our models by more than 10 times
without compromising accuracy. Comprehensive experiments on the CRUW radar
dataset demonstrate the advantages of the proposed method. Our RadarFormer
performs favorably against the state-of-the-art methods while being 2x faster
during inference and requiring only one-tenth of their model parameters. The
code associated with this paper is available at
https://github.com/YahiDar/RadarFormer.
- Abstract(参考訳): 自動運転車向けに開発された知覚システムの性能は、ここ数年で大幅に改善されている。
この改善は、自律運転における物体の検出と認識の作業を容易にするために、LiDARセンサーとポイントクラウドデータの利用の増加に関連している。
しかし、LiDARとカメラシステムは、ほこりや雨のような好ましくない状況で使用すると劣化する性能を示す。
一方レーダーは比較的長い波長で動作するため、これらの条件下ではより堅牢な測定が可能となる。
それにもかかわらず、レーダー中心のデータセットは、レーダー知覚のためのディープラーニング技術の開発にはあまり関心を示さない。
本研究では,レーダの周波数データが検出フレームワークへの唯一の入力であるレーダ物体検出問題について考察する。
さらに,ディープラーニングモデルにおけるレーダのみのデータ利用の課題について検討する。
本稿では,視覚深層学習における最先端技術を活用したトランスフォーマーモデルRadarFormerを提案する。
また,本モデルではチャネルチャープ時間マージモジュールを導入し,精度を損なうことなく,モデルのサイズと複雑さを10倍以上削減する。
CRUWレーダデータセットの総合実験により,提案手法の利点が示された。
radarformerは、推論中に2倍速くなり、モデルのパラメータの10分の1しか必要とせず、最先端のメソッドに対して好適に動作します。
この論文に関連するコードはhttps://github.com/YahiDar/RadarFormer.comで公開されている。
関連論文リスト
- Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Bootstrapping Autonomous Driving Radars with Self-Supervised Learning [13.13679517730015]
レーダモデルの訓練は、大規模レーダデータの注釈付けのコストと難しさによって妨げられている。
本研究では,未ラベルのレーダデータを事前学習型レーダのみの埋め込みに活用して,自律型認識タスクを実現するための自己教師型学習フレームワークを提案する。
下流オブジェクト検出に使用する場合、提案するセルフスーパービジョンフレームワークが、最先端の教師付きベースラインの精度をmAPで5.8%向上できることを実証する。
論文 参考訳(メタデータ) (2023-12-07T18:38:39Z) - TransRadar: Adaptive-Directional Transformer for Real-Time Multi-View
Radar Semantic Segmentation [21.72892413572166]
本稿では,レーダデータの多入力融合を用いたレーダシーンのセマンティックセマンティックセマンティクスへの新しいアプローチを提案する。
提案手法であるTransRadarは,CARRADAとRADIalのデータセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-10-03T17:59:05Z) - Timely Fusion of Surround Radar/Lidar for Object Detection in Autonomous Driving Systems [13.998883144668941]
レーダーとライダーセンサーのデータは、その補完的な利点を十分に活用し、周囲をより正確に再現することができる。
既存のレーダ/リダ融合法は、サラウンドレーダの低周波で動作する必要がある。
本稿では,Radar/Lidar周辺を高速なLidarのみに制限された作業周波数でヒューズする手法を開発した。
論文 参考訳(メタデータ) (2023-09-09T14:22:12Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Radars for Autonomous Driving: A Review of Deep Learning Methods and
Challenges [0.021665899581403605]
Radarは、自動運転車に使用される知覚センサーのスイートの重要なコンポーネントである。
低解像度、疎度、乱雑、高い不確実性、優れたデータセットの欠如などが特徴である。
現在のレーダーモデルは、レーダーデータに比較的弱い光学的特徴に焦点を当てたライダーや視覚モデルの影響を受けやすい。
論文 参考訳(メタデータ) (2023-06-15T17:37:52Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。