論文の概要: MUFASA: Multi-View Fusion and Adaptation Network with Spatial Awareness for Radar Object Detection
- arxiv url: http://arxiv.org/abs/2408.00565v1
- Date: Thu, 1 Aug 2024 13:52:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-04 20:26:35.136823
- Title: MUFASA: Multi-View Fusion and Adaptation Network with Spatial Awareness for Radar Object Detection
- Title(参考訳): MUFASA:レーダ物体検出のための空間認識型多視点融合適応ネットワーク
- Authors: Xiangyuan Peng, Miao Tang, Huawei Sun, Kay Bierzynski, Lorenzo Servadei, Robert Wille,
- Abstract要約: レーダー点雲の空間は 正確な物体検出に 困難を生じさせます
本稿では,レーダポイント雲の包括的特徴抽出手法を提案する。
我々は、VoDデータセット上のレーダベース手法のmAPが50.24%である場合、最先端の結果を得る。
- 参考スコア(独自算出の注目度): 3.1212590312985986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, approaches based on radar object detection have made significant progress in autonomous driving systems due to their robustness under adverse weather compared to LiDAR. However, the sparsity of radar point clouds poses challenges in achieving precise object detection, highlighting the importance of effective and comprehensive feature extraction technologies. To address this challenge, this paper introduces a comprehensive feature extraction method for radar point clouds. This study first enhances the capability of detection networks by using a plug-and-play module, GeoSPA. It leverages the Lalonde features to explore local geometric patterns. Additionally, a distributed multi-view attention mechanism, DEMVA, is designed to integrate the shared information across the entire dataset with the global information of each individual frame. By employing the two modules, we present our method, MUFASA, which enhances object detection performance through improved feature extraction. The approach is evaluated on the VoD and TJ4DRaDSet datasets to demonstrate its effectiveness. In particular, we achieve state-of-the-art results among radar-based methods on the VoD dataset with the mAP of 50.24%.
- Abstract(参考訳): 近年、レーダー物体検出に基づくアプローチは、LiDARと比較して悪天候下での堅牢性から、自律走行システムにおいて大きな進歩を遂げている。
しかし、レーダポイント雲の広がりは、正確な物体検出を達成する上での課題を生じさせ、効果的で包括的な特徴抽出技術の重要性を強調している。
そこで本研究では,レーダポイント雲の包括的特徴抽出手法を提案する。
本研究ではまず,プラグイン・アンド・プレイモジュールであるGeoSPAを用いて,検出ネットワークの能力を向上させる。
ラロンデの特徴を利用して局所的な幾何学的パターンを探索する。
さらに、分散マルチビューアテンションメカニズムであるDEMVAは、データセット全体にわたる共有情報と各フレームのグローバル情報を統合するように設計されている。
この2つのモジュールを用いて,特徴抽出の改良によりオブジェクト検出性能を向上させるMUFASAを提案する。
このアプローチは、VoDとTJ4DRaDSetデータセットで評価され、その有効性を示す。
特に、VoDデータセット上のレーダベース手法のmAPは50.24%である。
関連論文リスト
- PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - Multi-scale direction-aware SAR object detection network via global information fusion [18.997878517911378]
本稿では,SARオブジェクト検出における方向認識情報のグローバルな融合を目的とした新しいフレームワークであるSAR-Netを提案する。
UCMとDAMは効率的なグローバル情報融合と伝送を可能にする。
実験は、SAR-Netの有効性を示し、航空機や船舶のデータセットに対して最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-12-28T10:40:11Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Radar-Lidar Fusion for Object Detection by Designing Effective
Convolution Networks [18.17057711053028]
オブジェクト検出の強化のために,レーダデータとライダーデータを統合したデュアルブランチフレームワークを提案する。
この結果は、最先端の手法を1.89%ドルと2.61%ドルで上回り、好ましくない気象条件で上回っていることを示している。
論文 参考訳(メタデータ) (2023-10-30T10:18:40Z) - ClusterFusion: Leveraging Radar Spatial Features for Radar-Camera 3D
Object Detection in Autonomous Vehicles [0.0]
ディープラーニングレーダカメラによる3Dオブジェクト検出手法は、低視認性条件でも確実に正確な検出を行うことができる。
最近のレーダカメラ法では、画像の特徴と同じ平面上にレーダーポイントを投射し、両方のモダリティから抽出した特徴を融合させ、特徴レベルの融合を行うのが一般的である。
我々は、ポイントクラウドをクラスタ化し、ポイントクラウドクラスタ上で直接機能抽出を行うことで、レーダポイントクラウドの局所的な空間的特徴を活用するアーキテクチャであるClusterFusionを提案する。
論文 参考訳(メタデータ) (2023-09-07T14:23:47Z) - Multi-Task Cross-Modality Attention-Fusion for 2D Object Detection [6.388430091498446]
レーダとカメラデータの整合性を向上する2つの新しいレーダ前処理手法を提案する。
また,オブジェクト検出のためのMulti-Task Cross-Modality Attention-Fusion Network (MCAF-Net)を導入する。
我々のアプローチは、nuScenesデータセットにおける現在の最先端のレーダーカメラフュージョンベースのオブジェクト検出器よりも優れています。
論文 参考訳(メタデータ) (2023-07-17T09:26:13Z) - RaLiBEV: Radar and LiDAR BEV Fusion Learning for Anchor Box Free Object
Detection Systems [13.046347364043594]
自動運転では、LiDARとレーダーは環境認識に不可欠である。
最近の最先端の研究は、レーダーとLiDARの融合が悪天候の堅牢な検出につながることを明らかにしている。
鳥眼ビュー融合学習に基づくアンカーボックスフリー物体検出システムを提案する。
論文 参考訳(メタデータ) (2022-11-11T10:24:42Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - Depth Estimation from Monocular Images and Sparse Radar Data [93.70524512061318]
本稿では,ディープニューラルネットワークを用いた単眼画像とレーダ点の融合により,より正確な深度推定を実現する可能性を検討する。
レーダ測定で発生するノイズが,既存の融合法の適用を妨げている主要な理由の1つであることが判明した。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
論文 参考訳(メタデータ) (2020-09-30T19:01:33Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - Cross-layer Feature Pyramid Network for Salient Object Detection [102.20031050972429]
本稿では,有能な物体検出における進行的融合を改善するために,新しいクロス層特徴ピラミッドネットワークを提案する。
レイヤごとの分散機能は、他のすべてのレイヤからセマンティクスと健全な詳細の両方を同時に所有し、重要な情報の損失を減らします。
論文 参考訳(メタデータ) (2020-02-25T14:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。