論文の概要: ELMAR: Enhancing LiDAR Detection with 4D Radar Motion Awareness and Cross-modal Uncertainty
- arxiv url: http://arxiv.org/abs/2506.17958v1
- Date: Sun, 22 Jun 2025 09:28:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.66925
- Title: ELMAR: Enhancing LiDAR Detection with 4D Radar Motion Awareness and Cross-modal Uncertainty
- Title(参考訳): ELMAR:4次元レーダ運動認識とモード間不確かさによるLiDAR検出の強化
- Authors: Xiangyuan Peng, Miao Tang, Huawei Sun, Bierzynski Kay, Lorenzo Servadei, Robert Wille,
- Abstract要約: 本稿では,4次元レーダの動作状態とモード間不確実性により強化されたLiDAR検出フレームワークを提案する。
運転回廊内でのmAPは74.89%, 運転回廊内88.70%であった。
- 参考スコア(独自算出の注目度): 3.1212590312985986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LiDAR and 4D radar are widely used in autonomous driving and robotics. While LiDAR provides rich spatial information, 4D radar offers velocity measurement and remains robust under adverse conditions. As a result, increasing studies have focused on the 4D radar-LiDAR fusion method to enhance the perception. However, the misalignment between different modalities is often overlooked. To address this challenge and leverage the strengths of both modalities, we propose a LiDAR detection framework enhanced by 4D radar motion status and cross-modal uncertainty. The object movement information from 4D radar is first captured using a Dynamic Motion-Aware Encoding module during feature extraction to enhance 4D radar predictions. Subsequently, the instance-wise uncertainties of bounding boxes are estimated to mitigate the cross-modal misalignment and refine the final LiDAR predictions. Extensive experiments on the View-of-Delft (VoD) dataset highlight the effectiveness of our method, achieving state-of-the-art performance with the mAP of 74.89% in the entire area and 88.70% within the driving corridor while maintaining a real-time inference speed of 30.02 FPS.
- Abstract(参考訳): LiDARと4Dレーダーは、自律走行とロボット工学で広く使われている。
LiDARは豊富な空間情報を提供するが、4Dレーダーは速度測定を提供し、悪条件下では頑健である。
その結果,4次元レーダーとLiDARの融合による知覚の向上が注目されている。
しかし、異なるモダリティ間のミスアライメントはしばしば見過ごされる。
この課題に対処し,両モードの強度を活用するために,4次元レーダ運動状態とモード間不確実性により強化されたLiDAR検出フレームワークを提案する。
4Dレーダからの物体移動情報は、特徴抽出中にDynamic Motion-Aware Encodingモジュールを用いてキャプチャされ、4Dレーダ予測が強化される。
その後、境界ボックスのインスタンスワイド不確かさを推定し、クロスモーダルなミスアライメントを緩和し、最終LiDAR予測を洗練させる。
View-of-Delft(VoD)データセットの大規模な実験は、我々の手法の有効性を強調し、全領域で74.89%、運転回廊で88.70%、リアルタイム推論速度で30.02 FPSを維持しながら、最先端の性能を達成する。
関連論文リスト
- MoRAL: Motion-aware Multi-Frame 4D Radar and LiDAR Fusion for Robust 3D Object Detection [4.765283090183714]
MoRALはモーション対応のマルチフレーム4Dレーダーと、堅牢な3Dオブジェクト検出のためのLiDAR融合フレームワークである。
第一に、MRE(Motion-Aware Radar)は、移動物体からのフレーム間レーダーのミスアライメントを補うように設計されている。
第二に、Motion Attention Gated Fusion (MAGF)モジュールはレーダーモーション機能を統合してLiDAR機能を誘導し、動的フォアグラウンドオブジェクトにフォーカスする。
論文 参考訳(メタデータ) (2025-05-14T14:23:33Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - Enhanced 3D Object Detection via Diverse Feature Representations of 4D Radar Tensor [5.038148262901536]
Raw 4D Radar (4DRT) は従来の点雲よりも豊かな空間情報とドップラー情報を提供する。
効率を保ちつつ、4DRTの有用性を最大化する新しい3Dオブジェクト検出フレームワークを提案する。
本稿では, RTNHモデルよりもAP_3Dが7.3%, AP_BEVが9.5%向上したことを示す。
論文 参考訳(メタデータ) (2025-02-10T02:48:56Z) - MutualForce: Mutual-Aware Enhancement for 4D Radar-LiDAR 3D Object Detection [3.1212590312985986]
本稿では,その表現を相互に強化する4Dレーダ-LiDARフレームワークを提案する。
まず、レーダーからの指示的特徴を利用して、レーダーとLiDARの幾何学的特徴学習をガイドする。
空隙を緩和するため、LiDARの形状情報はレーダーBEVの特徴を豊かにするために使用される。
論文 参考訳(メタデータ) (2025-01-17T15:48:37Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。