論文の概要: MVFAN: Multi-View Feature Assisted Network for 4D Radar Object Detection
- arxiv url: http://arxiv.org/abs/2310.16389v1
- Date: Wed, 25 Oct 2023 06:10:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 16:27:09.244574
- Title: MVFAN: Multi-View Feature Assisted Network for 4D Radar Object Detection
- Title(参考訳): MVFAN:4次元レーダ物体検出のための多視点特徴支援ネットワーク
- Authors: Qiao Yan, Yihan Wang
- Abstract要約: 4Dレーダーは、悪天候下での弾力性と費用対効果が認められている。
LiDARやカメラとは異なり、レーダーは厳しい気象条件で損傷を受けないままである。
本稿では,自律走行車のためのレーダーによる3次元物体検出手法を提案する。
- 参考スコア(独自算出の注目度): 15.925365473140479
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 4D radar is recognized for its resilience and cost-effectiveness under
adverse weather conditions, thus playing a pivotal role in autonomous driving.
While cameras and LiDAR are typically the primary sensors used in perception
modules for autonomous vehicles, radar serves as a valuable supplementary
sensor. Unlike LiDAR and cameras, radar remains unimpaired by harsh weather
conditions, thereby offering a dependable alternative in challenging
environments. Developing radar-based 3D object detection not only augments the
competency of autonomous vehicles but also provides economic benefits. In
response, we propose the Multi-View Feature Assisted Network (\textit{MVFAN}),
an end-to-end, anchor-free, and single-stage framework for 4D-radar-based 3D
object detection for autonomous vehicles. We tackle the issue of insufficient
feature utilization by introducing a novel Position Map Generation module to
enhance feature learning by reweighing foreground and background points, and
their features, considering the irregular distribution of radar point clouds.
Additionally, we propose a pioneering backbone, the Radar Feature Assisted
backbone, explicitly crafted to fully exploit the valuable Doppler velocity and
reflectivity data provided by the 4D radar sensor. Comprehensive experiments
and ablation studies carried out on Astyx and VoD datasets attest to the
efficacy of our framework. The incorporation of Doppler velocity and RCS
reflectivity dramatically improves the detection performance for small moving
objects such as pedestrians and cyclists. Consequently, our approach culminates
in a highly optimized 4D-radar-based 3D object detection capability for
autonomous driving systems, setting a new standard in the field.
- Abstract(参考訳): 4Dレーダーは、悪天候下での弾力性と費用対効果で認識されており、自動運転において重要な役割を担っている。
カメラとライダーは通常、自動運転車の知覚モジュールで使用される主要なセンサーであるが、レーダーは貴重な補足センサーとして機能する。
LiDARやカメラとは異なり、レーダーは厳しい気象条件で損傷を受けていないため、困難な環境では信頼性の高い代替手段を提供する。
レーダーによる3Dオブジェクト検出の開発は、自動運転車の能力を高めるだけでなく、経済的利益をもたらす。
そこで,我々は4d-radarに基づく自律走行車用3d物体検出のためのエンドツーエンド・アンカーフリー・シングルステージフレームワークであるmulti-view feature assisted network (\textit{mvfan})を提案する。
レーダー点雲の不規則分布を考慮したフォアグラウンドとバックグラウンドポイントの強化による特徴学習の強化を目的とした,新しい位置マップ生成モジュールの導入により,特徴利用不足の問題に対処した。
さらに,4dレーダセンサが提供するドップラー速度と反射率データを完全に活用するために,先駆的なバックボーンであるレーダー機能支援バックボーンを提案する。
astyx と vod データセットを用いた包括的実験とアブレーション研究は,このフレームワークの有効性を証明している。
ドップラー速度とRCS反射率の付加により、歩行者やサイクリストなどの小型移動物体の検出性能が劇的に向上する。
その結果,自律走行システムにおける高度に最適化された4次元レーダーによる物体検出能力が達成され,新たな標準が確立された。
関連論文リスト
- RCBEVDet++: Toward High-accuracy Radar-Camera Fusion 3D Perception Network [34.45694077040797]
本稿では、BEEVDetと呼ばれるレーダーカメラ融合3Dオブジェクト検出フレームワークを提案する。
RadarBEVNetは、スパースレーダーポイントを高密度の鳥の目視特徴に符号化する。
提案手法は,3次元オブジェクト検出,BEVセマンティックセグメンテーション,および3次元マルチオブジェクト追跡タスクにおいて,最先端のレーダカメラ融合を実現する。
論文 参考訳(メタデータ) (2024-09-08T05:14:27Z) - RadarPillars: Efficient Object Detection from 4D Radar Point Clouds [42.9356088038035]
本稿では,柱型物体検出ネットワークRadarPillarsを提案する。
放射速度データを分解することにより、RadarPillarsは、View-of-Delftデータセットの最先端検出結果を大幅に上回る。
これはパラメータ数を大幅に削減し、既存のメソッドを効率面で上回り、エッジデバイス上でのリアルタイムパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-08-09T12:13:38Z) - RadarOcc: Robust 3D Occupancy Prediction with 4D Imaging Radar [15.776076554141687]
3D占有に基づく知覚パイプラインは、かなり進歩した自律運転を持つ。
現在の方法では、LiDARやカメラの入力を3D占有率予測に頼っている。
本稿では,4次元イメージングレーダセンサを用いた3次元占有予測手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T21:48:17Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Better Monocular 3D Detectors with LiDAR from the Past [64.6759926054061]
カメラベースの3D検出器は、画像の奥行きのあいまいさのため、LiDARベースの検出器に比べて性能が劣ることが多い。
本研究では,未ラベルの歴史的LiDARデータを活用することにより,単分子3D検出器の改良を図る。
複数の最先端モデルやデータセットに対して,9.66ミリ秒の追加レイテンシとストレージコストの低い,一貫性と大幅なパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-04-08T01:38:43Z) - CenterRadarNet: Joint 3D Object Detection and Tracking Framework using
4D FMCW Radar [28.640714690346353]
CenterRadarNetは、4D(Doppler-range-azimuth-ele)レーダーデータからの高分解能表現学習を容易にするように設計されている。
シングルステージの3Dオブジェクト検出器として、CenterRadarNetは、BEVオブジェクト分布の信頼性マップ、対応する3Dバウンディングボックス属性、および各ピクセルの外観埋め込みを推論する。
さまざまな駆動シナリオにおいて、CenterRadarNetは一貫性があり、堅牢なパフォーマンスを示し、その広範な適用性を強調している。
論文 参考訳(メタデータ) (2023-11-02T17:36:40Z) - NVRadarNet: Real-Time Radar Obstacle and Free Space Detection for
Autonomous Driving [57.03126447713602]
本稿では,自動車のRADARセンサを用いて動的障害物や乾燥可能な自由空間を検出するディープニューラルネットワーク(DNN)を提案する。
ネットワークは組み込みGPU上でリアルタイムよりも高速に動作し、地理的領域にわたって優れた一般化を示す。
論文 参考訳(メタデータ) (2022-09-29T01:30:34Z) - Fully Convolutional One-Stage 3D Object Detection on LiDAR Range Images [96.66271207089096]
FCOS-LiDARは、自律走行シーンのLiDAR点雲のための完全な1段式3Dオブジェクト検出器である。
標準的な2Dコンボリューションを持つRVベースの3D検出器は、最先端のBEVベースの検出器と同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-05-27T05:42:16Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - Rethinking of Radar's Role: A Camera-Radar Dataset and Systematic
Annotator via Coordinate Alignment [38.24705460170415]
CRUWと呼ばれる新しいデータセットを体系的なアノテーションとパフォーマンス評価システムで提案する。
CRUWは、レーダーの無線周波数(RF)画像から3Dのオブジェクトを純粋に分類し、ローカライズすることを目指しています。
私たちの知る限り、CRUWは体系的なアノテーションと評価システムを備えた最初の公開大規模データセットです。
論文 参考訳(メタデータ) (2021-05-11T17:13:45Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。