論文の概要: MoRAL: Motion-aware Multi-Frame 4D Radar and LiDAR Fusion for Robust 3D Object Detection
- arxiv url: http://arxiv.org/abs/2505.09422v1
- Date: Wed, 14 May 2025 14:23:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.49003
- Title: MoRAL: Motion-aware Multi-Frame 4D Radar and LiDAR Fusion for Robust 3D Object Detection
- Title(参考訳): MoRAL:ロバスト3次元物体検出のためのモーション対応多フレーム4DレーダとLiDAR融合
- Authors: Xiangyuan Peng, Yu Wang, Miao Tang, Bierzynski Kay, Lorenzo Servadei, Robert Wille,
- Abstract要約: MoRALはモーション対応のマルチフレーム4Dレーダーと、堅牢な3Dオブジェクト検出のためのLiDAR融合フレームワークである。
第一に、MRE(Motion-Aware Radar)は、移動物体からのフレーム間レーダーのミスアライメントを補うように設計されている。
第二に、Motion Attention Gated Fusion (MAGF)モジュールはレーダーモーション機能を統合してLiDAR機能を誘導し、動的フォアグラウンドオブジェクトにフォーカスする。
- 参考スコア(独自算出の注目度): 4.765283090183714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable autonomous driving systems require accurate detection of traffic participants. To this end, multi-modal fusion has emerged as an effective strategy. In particular, 4D radar and LiDAR fusion methods based on multi-frame radar point clouds have demonstrated the effectiveness in bridging the point density gap. However, they often neglect radar point clouds' inter-frame misalignment caused by object movement during accumulation and do not fully exploit the object dynamic information from 4D radar. In this paper, we propose MoRAL, a motion-aware multi-frame 4D radar and LiDAR fusion framework for robust 3D object detection. First, a Motion-aware Radar Encoder (MRE) is designed to compensate for inter-frame radar misalignment from moving objects. Later, a Motion Attention Gated Fusion (MAGF) module integrate radar motion features to guide LiDAR features to focus on dynamic foreground objects. Extensive evaluations on the View-of-Delft (VoD) dataset demonstrate that MoRAL outperforms existing methods, achieving the highest mAP of 73.30% in the entire area and 88.68% in the driving corridor. Notably, our method also achieves the best AP of 69.67% for pedestrians in the entire area and 96.25% for cyclists in the driving corridor.
- Abstract(参考訳): 信頼性の高い自動運転システムは、交通参加者の正確な検出を必要とする。
この目的のために、マルチモーダル融合は効果的な戦略として現れてきた。
特に, 多フレームレーダ点雲に基づく4次元レーダとLiDAR融合法は, 点密度ギャップをブリッジする効果を示した。
しかし、それらは蓄積中の物体の動きによって生じるレーダーポイント雲のフレーム間ミスアライメントを無視することが多く、4Dレーダからの物体の動的情報を十分に活用しない。
本稿では,動き認識型マルチフレーム4Dレーダと,ロバストな3Dオブジェクト検出のためのLiDAR融合フレームワークであるMoRALを提案する。
第一に、MRE(Motion-Aware Radar Encoder)は、移動物体からのフレーム間レーダーの不一致を補うように設計されている。
その後、Motion Attention Gated Fusion (MAGF)モジュールがレーダーモーション機能を統合してLiDAR機能を誘導し、動的フォアグラウンドオブジェクトにフォーカスする。
View-of-Delft (VoD)データセットの大規模な評価では、モーラルは既存の手法よりも優れており、全領域で73.30%、運転回廊で88.68%のmAPを達成している。
また,運転回廊の歩行者は69.67%,自転車は96.25%のAPを達成している。
関連論文リスト
- ZFusion: An Effective Fuser of Camera and 4D Radar for 3D Object Perception in Autonomous Driving [7.037019489455008]
本研究では、4次元レーダと視覚のモダリティを融合した3次元物体検出手法ZFusionを提案する。
FP-DDCAフェイザーはTransformerブロックをパックし、異なるスケールのマルチモーダル機能をインタラクティブに融合する。
実験の結果、ZFusionは興味のある領域で最先端のmAPを達成した。
論文 参考訳(メタデータ) (2025-04-04T13:29:32Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - MutualForce: Mutual-Aware Enhancement for 4D Radar-LiDAR 3D Object Detection [3.1212590312985986]
本稿では,その表現を相互に強化する4Dレーダ-LiDARフレームワークを提案する。
まず、レーダーからの指示的特徴を利用して、レーダーとLiDARの幾何学的特徴学習をガイドする。
空隙を緩和するため、LiDARの形状情報はレーダーBEVの特徴を豊かにするために使用される。
論文 参考訳(メタデータ) (2025-01-17T15:48:37Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - MVFAN: Multi-View Feature Assisted Network for 4D Radar Object Detection [15.925365473140479]
4Dレーダーは、悪天候下での弾力性と費用対効果が認められている。
LiDARやカメラとは異なり、レーダーは厳しい気象条件で損傷を受けないままである。
本稿では,自律走行車のためのレーダーによる3次元物体検出手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T06:10:07Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。