論文の概要: RadarDistill: Boosting Radar-based Object Detection Performance via Knowledge Distillation from LiDAR Features
- arxiv url: http://arxiv.org/abs/2403.05061v2
- Date: Fri, 5 Apr 2024 00:43:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-08 18:16:01.319111
- Title: RadarDistill: Boosting Radar-based Object Detection Performance via Knowledge Distillation from LiDAR Features
- Title(参考訳): RadarDistill:LiDAR特徴量からの知識蒸留によるレーダベース物体検出性能の向上
- Authors: Geonho Bang, Kwangjin Choi, Jisong Kim, Dongsuk Kum, Jun Won Choi,
- Abstract要約: RadarDistillは、LiDARデータを利用してレーダデータの表現を改善する知識蒸留(KD)手法である。
RadarDistillは、3つのキーコンポーネントを使用してLiDAR特徴の望ましい特徴をレーダー特徴に伝達することに成功した。
nuScenesデータセットの比較分析により、RadarDistillは、レーダのみのオブジェクト検出タスクに対して、最先端(SOTA)性能を達成することを示した。
- 参考スコア(独自算出の注目度): 15.686167262542297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The inherent noisy and sparse characteristics of radar data pose challenges in finding effective representations for 3D object detection. In this paper, we propose RadarDistill, a novel knowledge distillation (KD) method, which can improve the representation of radar data by leveraging LiDAR data. RadarDistill successfully transfers desirable characteristics of LiDAR features into radar features using three key components: Cross-Modality Alignment (CMA), Activation-based Feature Distillation (AFD), and Proposal-based Feature Distillation (PFD). CMA enhances the density of radar features by employing multiple layers of dilation operations, effectively addressing the challenge of inefficient knowledge transfer from LiDAR to radar. AFD selectively transfers knowledge based on regions of the LiDAR features, with a specific focus on areas where activation intensity exceeds a predefined threshold. PFD similarly guides the radar network to selectively mimic features from the LiDAR network within the object proposals. Our comparative analyses conducted on the nuScenes datasets demonstrate that RadarDistill achieves state-of-the-art (SOTA) performance for radar-only object detection task, recording 20.5% in mAP and 43.7% in NDS. Also, RadarDistill significantly improves the performance of the camera-radar fusion model.
- Abstract(参考訳): レーダデータの固有ノイズとスパース特性は、3次元物体検出に有効な表現を見つける上での課題となる。
本稿では,新しい知識蒸留(KD)手法であるRadarDistillを提案し,LiDARデータを利用してレーダデータの表現を改善する。
RadarDistillは、CMA(Cross-Modality Alignment)、AFD(Activation-based Feature Distillation)、PFD(Product-based Feature Distillation)の3つの主要コンポーネントを使用して、LiDARの望ましい特徴をレーダー特徴に伝達することに成功した。
CMAは、複数のダイレーション演算を用いてレーダー特性の密度を高め、LiDARからレーダーへの非効率な知識伝達の課題に効果的に対処する。
AFDは、活性化強度が予め定義された閾値を超える領域に特化して、LiDAR特徴の領域に基づいて知識を選択的に転送する。
PFDも同様にレーダーネットワークを誘導し、オブジェクトの提案の中でLiDARネットワークから機能を選択的に模倣する。
nuScenesデータセットとの比較分析により、RadarDistillは、レーダーのみのオブジェクト検出タスクにおいて、20.5%のmAP、43.7%のNDSで、最先端(SOTA)性能を達成することが示された。
また、RadarDistillは、カメラレーダ融合モデルの性能を大幅に改善する。
関連論文リスト
- RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - TransRAD: Retentive Vision Transformer for Enhanced Radar Object Detection [6.163747364795787]
本稿では,新しい3次元レーダ物体検出モデルであるTransRADを提案する。
本研究では、ディープレーダオブジェクト検出における重複境界ボックスの共通問題を軽減するために、位置認識型NMSを提案する。
その結果,TransRADは2次元および3次元のレーダ検出タスクにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2025-01-29T20:21:41Z) - MutualForce: Mutual-Aware Enhancement for 4D Radar-LiDAR 3D Object Detection [3.1212590312985986]
本稿では,その表現を相互に強化する4Dレーダ-LiDARフレームワークを提案する。
まず、レーダーからの指示的特徴を利用して、レーダーとLiDARの幾何学的特徴学習をガイドする。
空隙を緩和するため、LiDARの形状情報はレーダーBEVの特徴を豊かにするために使用される。
論文 参考訳(メタデータ) (2025-01-17T15:48:37Z) - RadarPillars: Efficient Object Detection from 4D Radar Point Clouds [42.9356088038035]
本稿では,柱型物体検出ネットワークRadarPillarsを提案する。
放射速度データを分解することにより、RadarPillarsは、View-of-Delftデータセットの最先端検出結果を大幅に上回る。
これはパラメータ数を大幅に削減し、既存のメソッドを効率面で上回り、エッジデバイス上でのリアルタイムパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-08-09T12:13:38Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Better Monocular 3D Detectors with LiDAR from the Past [64.6759926054061]
カメラベースの3D検出器は、画像の奥行きのあいまいさのため、LiDARベースの検出器に比べて性能が劣ることが多い。
本研究では,未ラベルの歴史的LiDARデータを活用することにより,単分子3D検出器の改良を図る。
複数の最先端モデルやデータセットに対して,9.66ミリ秒の追加レイテンシとストレージコストの低い,一貫性と大幅なパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-04-08T01:38:43Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - Probabilistic Oriented Object Detection in Automotive Radar [8.281391209717103]
本稿では,レーダー物体検出のためのディープラーニングに基づくアルゴリズムを提案する。
我々は102544フレームの生レーダと同期LiDARデータを備えた新しいマルチモーダルデータセットを作成しました。
我々の最高性能レーダ検出モデルは、指向性IoU0.3で77.28%APを達成した。
論文 参考訳(メタデータ) (2020-04-11T05:29:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。