論文の概要: RadarDistill: Boosting Radar-based Object Detection Performance via
Knowledge Distillation from LiDAR Features
- arxiv url: http://arxiv.org/abs/2403.05061v1
- Date: Fri, 8 Mar 2024 05:15:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 20:57:22.623592
- Title: RadarDistill: Boosting Radar-based Object Detection Performance via
Knowledge Distillation from LiDAR Features
- Title(参考訳): RadarDistill:LiDAR特徴量からの知識蒸留によるレーダベース物体検出性能の向上
- Authors: Geonho Bang, Kwangjin Choi, Jisong Kim, Dongsuk Kum, Jun Won Choi
- Abstract要約: RadarDistillは、LiDARデータを利用してレーダデータの表現を改善する知識蒸留(KD)手法である。
RadarDistillは、3つのキーコンポーネントを使用してLiDAR特徴の望ましい特徴をレーダー特徴に伝達することに成功した。
nuScenesデータセットの比較分析により、RadarDistillは、レーダのみのオブジェクト検出タスクに対して、最先端(SOTA)性能を達成することを示した。
- 参考スコア(独自算出の注目度): 16.82884108316637
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The inherent noisy and sparse characteristics of radar data pose challenges
in finding effective representations for 3D object detection. In this paper, we
propose RadarDistill, a novel knowledge distillation (KD) method, which can
improve the representation of radar data by leveraging LiDAR data. RadarDistill
successfully transfers desirable characteristics of LiDAR features into radar
features using three key components: Cross-Modality Alignment (CMA),
Activation-based Feature Distillation (AFD), and Proposal-based Feature
Distillation (PFD). CMA enhances the density of radar features through multiple
layers of dilation operations, effectively addressing the challenges of
inefficient knowledge transfer from LiDAR to radar. AFD is designed to transfer
knowledge from significant areas of the LiDAR features, specifically those
regions where activation intensity exceeds a predetermined threshold. PFD
guides the radar network to mimic LiDAR network features in the object
proposals for accurately detected results while moderating features for
misdetected proposals like false positives. Our comparative analyses conducted
on the nuScenes datasets demonstrate that RadarDistill achieves
state-of-the-art (SOTA) performance for radar-only object detection task,
recording 20.5% in mAP and 43.7% in NDS. Also, RadarDistill significantly
improves the performance of the camera-radar fusion model.
- Abstract(参考訳): レーダデータの固有ノイズとスパース特性は、3次元物体検出に有効な表現を見つける上での課題となる。
本稿では,新しい知識蒸留(KD)手法であるRadarDistillを提案し,LiDARデータを利用してレーダデータの表現を改善する。
RadarDistillは、CMA(Cross-Modality Alignment)、AFD(Activation-based Feature Distillation)、PFD(Product-based Feature Distillation)の3つの主要コンポーネントを使用して、LiDARの望ましい特徴をレーダー特徴に伝達することに成功した。
CMAは、複数のダイレーション操作によってレーダー特徴の密度を高め、LiDARからレーダーへの非効率な知識伝達の課題に効果的に対処する。
AFDはLiDARの特徴、特に活性化強度が所定の閾値を超える領域から知識を伝達するように設計されている。
PFDはレーダネットワークを誘導し、オブジェクトの提案でLiDARネットワークの特徴を模倣し、正確な結果を検出すると同時に、偽陽性などの誤検出提案の特徴を緩和する。
比較分析の結果,radardistillはレーダーのみの物体検出タスクにおいて最先端(sota)性能を達成し,マップで20.5%,ndsで43.7%を記録した。
また、RadarDistillは、カメラレーダ融合モデルの性能を大幅に改善する。
関連論文リスト
- Multi-stage Learning for Radar Pulse Activity Segmentation [51.781832424705094]
無線信号認識は電子戦において重要な機能である。
電子戦システムでは、レーダパルス活動の正確な識別と位置決めが要求される。
ディープラーニングに基づくレーダーパルス活動認識法は、ほとんど未検討のままである。
論文 参考訳(メタデータ) (2023-12-15T01:56:27Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - Radar Artifact Labeling Framework (RALF): Method for Plausible Radar
Detections in Datasets [2.5899040911480187]
粗いレーダ点雲のラベル付けのためのクロスセンサレーダアーチファクトラベルフレームワーク(RALF)を提案する。
RALFは、レーダーの生検出のための可視性ラベルを提供し、アーティファクトとターゲットを区別する。
半手動ラベル付き地上真理データセットの3.28cdot106$ポイントの誤差測定値を評価することにより,結果を検証する。
論文 参考訳(メタデータ) (2020-12-03T15:11:31Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - Depth Estimation from Monocular Images and Sparse Radar Data [93.70524512061318]
本稿では,ディープニューラルネットワークを用いた単眼画像とレーダ点の融合により,より正確な深度推定を実現する可能性を検討する。
レーダ測定で発生するノイズが,既存の融合法の適用を妨げている主要な理由の1つであることが判明した。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
論文 参考訳(メタデータ) (2020-09-30T19:01:33Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - Probabilistic Oriented Object Detection in Automotive Radar [8.281391209717103]
本稿では,レーダー物体検出のためのディープラーニングに基づくアルゴリズムを提案する。
我々は102544フレームの生レーダと同期LiDARデータを備えた新しいマルチモーダルデータセットを作成しました。
我々の最高性能レーダ検出モデルは、指向性IoU0.3で77.28%APを達成した。
論文 参考訳(メタデータ) (2020-04-11T05:29:32Z) - Deep Learning on Radar Centric 3D Object Detection [4.822598110892847]
レーダーのみを用いた3次元物体検出に深層学習手法を導入する。
レーダラベル付きデータの欠如を克服するために,豊富なLiDARデータを利用する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-27T10:16:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。