論文の概要: MVFAN: Multi-View Feature Assisted Network for 4D Radar Object Detection
- arxiv url: http://arxiv.org/abs/2310.16389v1
- Date: Wed, 25 Oct 2023 06:10:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 16:27:09.244574
- Title: MVFAN: Multi-View Feature Assisted Network for 4D Radar Object Detection
- Title(参考訳): MVFAN:4次元レーダ物体検出のための多視点特徴支援ネットワーク
- Authors: Qiao Yan, Yihan Wang
- Abstract要約: 4Dレーダーは、悪天候下での弾力性と費用対効果が認められている。
LiDARやカメラとは異なり、レーダーは厳しい気象条件で損傷を受けないままである。
本稿では,自律走行車のためのレーダーによる3次元物体検出手法を提案する。
- 参考スコア(独自算出の注目度): 15.925365473140479
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 4D radar is recognized for its resilience and cost-effectiveness under
adverse weather conditions, thus playing a pivotal role in autonomous driving.
While cameras and LiDAR are typically the primary sensors used in perception
modules for autonomous vehicles, radar serves as a valuable supplementary
sensor. Unlike LiDAR and cameras, radar remains unimpaired by harsh weather
conditions, thereby offering a dependable alternative in challenging
environments. Developing radar-based 3D object detection not only augments the
competency of autonomous vehicles but also provides economic benefits. In
response, we propose the Multi-View Feature Assisted Network (\textit{MVFAN}),
an end-to-end, anchor-free, and single-stage framework for 4D-radar-based 3D
object detection for autonomous vehicles. We tackle the issue of insufficient
feature utilization by introducing a novel Position Map Generation module to
enhance feature learning by reweighing foreground and background points, and
their features, considering the irregular distribution of radar point clouds.
Additionally, we propose a pioneering backbone, the Radar Feature Assisted
backbone, explicitly crafted to fully exploit the valuable Doppler velocity and
reflectivity data provided by the 4D radar sensor. Comprehensive experiments
and ablation studies carried out on Astyx and VoD datasets attest to the
efficacy of our framework. The incorporation of Doppler velocity and RCS
reflectivity dramatically improves the detection performance for small moving
objects such as pedestrians and cyclists. Consequently, our approach culminates
in a highly optimized 4D-radar-based 3D object detection capability for
autonomous driving systems, setting a new standard in the field.
- Abstract(参考訳): 4Dレーダーは、悪天候下での弾力性と費用対効果で認識されており、自動運転において重要な役割を担っている。
カメラとライダーは通常、自動運転車の知覚モジュールで使用される主要なセンサーであるが、レーダーは貴重な補足センサーとして機能する。
LiDARやカメラとは異なり、レーダーは厳しい気象条件で損傷を受けていないため、困難な環境では信頼性の高い代替手段を提供する。
レーダーによる3Dオブジェクト検出の開発は、自動運転車の能力を高めるだけでなく、経済的利益をもたらす。
そこで,我々は4d-radarに基づく自律走行車用3d物体検出のためのエンドツーエンド・アンカーフリー・シングルステージフレームワークであるmulti-view feature assisted network (\textit{mvfan})を提案する。
レーダー点雲の不規則分布を考慮したフォアグラウンドとバックグラウンドポイントの強化による特徴学習の強化を目的とした,新しい位置マップ生成モジュールの導入により,特徴利用不足の問題に対処した。
さらに,4dレーダセンサが提供するドップラー速度と反射率データを完全に活用するために,先駆的なバックボーンであるレーダー機能支援バックボーンを提案する。
astyx と vod データセットを用いた包括的実験とアブレーション研究は,このフレームワークの有効性を証明している。
ドップラー速度とRCS反射率の付加により、歩行者やサイクリストなどの小型移動物体の検出性能が劇的に向上する。
その結果,自律走行システムにおける高度に最適化された4次元レーダーによる物体検出能力が達成され,新たな標準が確立された。
関連論文リスト
- Vision meets mmWave Radar: 3D Object Perception Benchmark for Autonomous
Driving [30.456314610767667]
CRUW3Dデータセットには、66K同期カメラ、レーダー、LiDARフレームが含まれる。
この種のフォーマットは、カメラとレーダーの間の情報や特徴を融合させた後、機械学習モデルによりより信頼性の高い知覚結果が得られる。
論文 参考訳(メタデータ) (2023-11-17T01:07:37Z) - CenterRadarNet: Joint 3D Object Detection and Tracking Framework using
4D FMCW Radar [28.640714690346353]
CenterRadarNetは、4D(Doppler-range-azimuth-ele)レーダーデータからの高分解能表現学習を容易にするように設計されている。
シングルステージの3Dオブジェクト検出器として、CenterRadarNetは、BEVオブジェクト分布の信頼性マップ、対応する3Dバウンディングボックス属性、および各ピクセルの外観埋め込みを推論する。
さまざまな駆動シナリオにおいて、CenterRadarNetは一貫性があり、堅牢なパフォーマンスを示し、その広範な適用性を強調している。
論文 参考訳(メタデータ) (2023-11-02T17:36:40Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - NVRadarNet: Real-Time Radar Obstacle and Free Space Detection for
Autonomous Driving [57.03126447713602]
本稿では,自動車のRADARセンサを用いて動的障害物や乾燥可能な自由空間を検出するディープニューラルネットワーク(DNN)を提案する。
ネットワークは組み込みGPU上でリアルタイムよりも高速に動作し、地理的領域にわたって優れた一般化を示す。
論文 参考訳(メタデータ) (2022-09-29T01:30:34Z) - Fully Convolutional One-Stage 3D Object Detection on LiDAR Range Images [96.66271207089096]
FCOS-LiDARは、自律走行シーンのLiDAR点雲のための完全な1段式3Dオブジェクト検出器である。
標準的な2Dコンボリューションを持つRVベースの3D検出器は、最先端のBEVベースの検出器と同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-05-27T05:42:16Z) - TJ4DRadSet: A 4D Radar Dataset for Autonomous Driving [16.205201694162092]
我々は、TJ4DRadSetという自律走行データセットを導入し、4Dレーダー、ライダー、カメラ、および合計40Kフレームのシーケンスからなるマルチモーダルセンサーを含む。
我々は,4次元レーダポイント雲に対するディープラーニング手法の有効性を示すために,データセットのための4次元レーダベースの3次元オブジェクト検出ベースラインを提供する。
論文 参考訳(メタデータ) (2022-04-28T13:17:06Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - Rethinking of Radar's Role: A Camera-Radar Dataset and Systematic
Annotator via Coordinate Alignment [38.24705460170415]
CRUWと呼ばれる新しいデータセットを体系的なアノテーションとパフォーマンス評価システムで提案する。
CRUWは、レーダーの無線周波数(RF)画像から3Dのオブジェクトを純粋に分類し、ローカライズすることを目指しています。
私たちの知る限り、CRUWは体系的なアノテーションと評価システムを備えた最初の公開大規模データセットです。
論文 参考訳(メタデータ) (2021-05-11T17:13:45Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - CARRADA Dataset: Camera and Automotive Radar with Range-Angle-Doppler
Annotations [0.0]
距離角-ドップラーアノテーションを用いた同期カメラとレーダ記録のデータセットであるCARRADAを紹介する。
また、データセットのアノテートに使用された半自動アノテーション手法と、レーダーセマンティックセグメンテーションベースラインを提案する。
論文 参考訳(メタデータ) (2020-05-04T13:14:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。