論文の概要: MutualForce: Mutual-Aware Enhancement for 4D Radar-LiDAR 3D Object Detection
- arxiv url: http://arxiv.org/abs/2501.10266v1
- Date: Fri, 17 Jan 2025 15:48:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-20 13:59:32.379477
- Title: MutualForce: Mutual-Aware Enhancement for 4D Radar-LiDAR 3D Object Detection
- Title(参考訳): MutualForce: 4D Radar-LiDAR 3Dオブジェクト検出のための相互認識機能強化
- Authors: Xiangyuan Peng, Huawei Sun, Kay Bierzynski, Anton Fischbacher, Lorenzo Servadei, Robert Wille,
- Abstract要約: 本稿では,その表現を相互に強化する4Dレーダ-LiDARフレームワークを提案する。
まず、レーダーからの指示的特徴を利用して、レーダーとLiDARの幾何学的特徴学習をガイドする。
空隙を緩和するため、LiDARの形状情報はレーダーBEVの特徴を豊かにするために使用される。
- 参考スコア(独自算出の注目度): 3.1212590312985986
- License:
- Abstract: Radar and LiDAR have been widely used in autonomous driving as LiDAR provides rich structure information, and radar demonstrates high robustness under adverse weather. Recent studies highlight the effectiveness of fusing radar and LiDAR point clouds. However, challenges remain due to the modality misalignment and information loss during feature extractions. To address these issues, we propose a 4D radar-LiDAR framework to mutually enhance their representations. Initially, the indicative features from radar are utilized to guide both radar and LiDAR geometric feature learning. Subsequently, to mitigate their sparsity gap, the shape information from LiDAR is used to enrich radar BEV features. Extensive experiments on the View-of-Delft (VoD) dataset demonstrate our approach's superiority over existing methods, achieving the highest mAP of 71.76% across the entire area and 86.36\% within the driving corridor. Especially for cars, we improve the AP by 4.17% and 4.20% due to the strong indicative features and symmetric shapes.
- Abstract(参考訳): レーダーとLiDARは、LiDARが豊富な構造情報を提供し、レーダーは悪天候下で高い堅牢性を示すため、自律走行に広く使用されている。
近年の研究では、拡散レーダーとLiDAR点雲の有効性が注目されている。
しかし, 特徴抽出時のモダリティのずれや情報損失が原因で, 課題は残る。
これらの課題に対処するため,我々は,それらの表現を相互に強化する4Dレーダ-LiDARフレームワークを提案する。
当初、レーダーからの指示的特徴はレーダーとLiDARの幾何学的特徴学習の両方を導くために利用されていた。
その後、その空隙を緩和するため、LiDARの形状情報はレーダーBEV特徴の強化に使用される。
View-of-Delft(VoD)データセットの大規模な実験では、既存の手法よりもアプローチが優れていることが示され、全領域で71.76%、運転回廊内で86.36\%のmAPが達成された。
特に自動車では,強い印象的特徴と対称形状のためにAPを4.17%,4.20%改善する。
関連論文リスト
- A Novel Multi-Teacher Knowledge Distillation for Real-Time Object Detection using 4D Radar [5.038148262901536]
3Dオブジェクト検出は、安全で自律的なナビゲーションに不可欠であり、多様な気象条件にまたがって信頼性の高い性能を必要とする。
従来のレーダーは標高データがないため制限がある。
4Dレーダーは、距離、方位、ドップラー速度とともに高度を測定することでこれを克服し、自動運転車にとって貴重なものとなっている。
論文 参考訳(メタデータ) (2025-02-10T02:48:56Z) - TransRAD: Retentive Vision Transformer for Enhanced Radar Object Detection [6.163747364795787]
本稿では,新しい3次元レーダ物体検出モデルであるTransRADを提案する。
本研究では、ディープレーダオブジェクト検出における重複境界ボックスの共通問題を軽減するために、位置認識型NMSを提案する。
その結果,TransRADは2次元および3次元のレーダ検出タスクにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2025-01-29T20:21:41Z) - RadarPillars: Efficient Object Detection from 4D Radar Point Clouds [42.9356088038035]
本稿では,柱型物体検出ネットワークRadarPillarsを提案する。
放射速度データを分解することにより、RadarPillarsは、View-of-Delftデータセットの最先端検出結果を大幅に上回る。
これはパラメータ数を大幅に削減し、既存のメソッドを効率面で上回り、エッジデバイス上でのリアルタイムパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-08-09T12:13:38Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - RadarDistill: Boosting Radar-based Object Detection Performance via Knowledge Distillation from LiDAR Features [15.686167262542297]
RadarDistillは、LiDARデータを利用してレーダデータの表現を改善する知識蒸留(KD)手法である。
RadarDistillは、3つのキーコンポーネントを使用してLiDAR特徴の望ましい特徴をレーダー特徴に伝達することに成功した。
nuScenesデータセットの比較分析により、RadarDistillは、レーダのみのオブジェクト検出タスクに対して、最先端(SOTA)性能を達成することを示した。
論文 参考訳(メタデータ) (2024-03-08T05:15:48Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - RadarFormer: Lightweight and Accurate Real-Time Radar Object Detection
Model [13.214257841152033]
レーダー中心のデータセットは、レーダー知覚のためのディープラーニング技術の開発にはあまり注目されていない。
本稿では,視覚深層学習における最先端技術を活用したトランスフォーマーモデルRadarFormerを提案する。
また、チャネルチャープ時マージモジュールを導入し、精度を損なうことなく、モデルのサイズと複雑さを10倍以上に削減する。
論文 参考訳(メタデータ) (2023-04-17T17:07:35Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。