論文の概要: IMKD: Intensity-Aware Multi-Level Knowledge Distillation for Camera-Radar Fusion
- arxiv url: http://arxiv.org/abs/2512.15581v1
- Date: Wed, 17 Dec 2025 16:40:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:27.061461
- Title: IMKD: Intensity-Aware Multi-Level Knowledge Distillation for Camera-Radar Fusion
- Title(参考訳): IMKD:カメラレーダー核融合のための多層知識蒸留
- Authors: Shashank Mishra, Karan Patil, Didier Stricker, Jason Rambach,
- Abstract要約: 推論時にLiDARを使わずに知識蒸留を利用した高性能レーダカメラ3Dオブジェクト検出が可能となる。
既存の蒸留法では、各センサに直接モダリティ特有の特徴を伝達し、それぞれの特性を歪ませ、個々の強度を低下させることができる。
IMKDはマルチレベル知識蒸留に基づくレーダカメラ融合フレームワークであり,各センサの固有の特性を保ちながら,相補的な強度を増幅する。
- 参考スコア(独自算出の注目度): 14.54325436617196
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-performance Radar-Camera 3D object detection can be achieved by leveraging knowledge distillation without using LiDAR at inference time. However, existing distillation methods typically transfer modality-specific features directly to each sensor, which can distort their unique characteristics and degrade their individual strengths. To address this, we introduce IMKD, a radar-camera fusion framework based on multi-level knowledge distillation that preserves each sensor's intrinsic characteristics while amplifying their complementary strengths. IMKD applies a three-stage, intensity-aware distillation strategy to enrich the fused representation across the architecture: (1) LiDAR-to-Radar intensity-aware feature distillation to enhance radar representations with fine-grained structural cues, (2) LiDAR-to-Fused feature intensity-guided distillation to selectively highlight useful geometry and depth information at the fusion level, fostering complementarity between the modalities rather than forcing them to align, and (3) Camera-Radar intensity-guided fusion mechanism that facilitates effective feature alignment and calibration. Extensive experiments on the nuScenes benchmark show that IMKD reaches 67.0% NDS and 61.0% mAP, outperforming all prior distillation-based radar-camera fusion methods. Our code and models are available at https://github.com/dfki-av/IMKD/.
- Abstract(参考訳): 推論時にLiDARを使わずに知識蒸留を利用した高性能レーダカメラ3Dオブジェクト検出が可能となる。
しかし、既存の蒸留法では、各センサに直接モダリティ固有の特徴を伝達し、それぞれの特性を歪ませ、個々の強度を低下させることができる。
IMKDはマルチレベル知識蒸留に基づくレーダカメラ融合フレームワークであり,各センサの固有の特性を保ちながら,相補的強度を増幅する。
IMKDは,(1)細粒度構造を持つレーダー表現を強化するためのLiDAR-to-Radar機能蒸留,(2)LiDAR-to-Fused特徴強度誘導蒸留,(2)融合レベルで有用な幾何学的および深度情報を選択的に強調するためのLiDAR-to-Radar機能誘導蒸留,(3)効果的な特徴調整と校正を容易にするカメラ・レーダー強度誘導融合機構の3段階,融合表現の強化を目的とした3段階の強度認識蒸留手法を適用した。
nuScenesベンチマークの大規模な実験では、IMKDは67.0%のNDSと61.0%のmAPに達し、以前の蒸留法に基づくレーダーカメラ融合法よりも優れていた。
私たちのコードとモデルはhttps://github.com/dfki-av/IMKD/で利用可能です。
関連論文リスト
- RCTDistill: Cross-Modal Knowledge Distillation Framework for Radar-Camera 3D Object Detection with Temporal Fusion [21.686343737103627]
レーダカメラ融合法は3次元物体検出のコスト効率向上手法として登場したが,LiDAR法に遅れが生じた。
最近の研究は、これらの制限を克服するために、時間融合と知識蒸留の戦略を採用することに重点を置いている。
本稿では,3つの鍵モジュールからなる時間融合に基づく新しいクロスモーダルKD手法であるRDTDistillを提案する。
論文 参考訳(メタデータ) (2025-09-22T12:49:49Z) - LiRCDepth: Lightweight Radar-Camera Depth Estimation via Knowledge Distillation and Uncertainty Guidance [5.9796425689255255]
LiRCDepthは軽量レーダーカメラ深度推定モデルである。
知識蒸留を取り入れてトレーニングプロセスを強化する。
このモデルはnuScenesデータセット上でMAEを6.6%改善する。
論文 参考訳(メタデータ) (2024-12-20T22:34:47Z) - SCKD: Semi-Supervised Cross-Modality Knowledge Distillation for 4D Radar Object Detection [16.127926058992237]
本研究では,4次元レーダを用いた3次元物体検出のためのSCKD法を提案する。
セミ教師付き蒸留によるLidar-Radar融合教師ネットワークから特徴を学習する能力を特徴付ける。
同じネットワーク構造で、SCKDで訓練されたレーダーのみの学生は、ベースライン上でmAPを10.38%向上させる。
論文 参考訳(メタデータ) (2024-12-19T06:42:25Z) - Leveraging Vision-Centric Multi-Modal Expertise for 3D Object Detection [66.74183705987276]
本稿では, 見習いにやさしいマルチモーダル専門家と時間融合にやさしい蒸留監督を含む,カメラオンリーの見習いモデルを改善するための枠組みを提案する。
これらの改善により、我々のカメラオンリーの見習いVCD-Aは、63.1%のNDSスコアでnuScenesに新しい最先端技術を設定する。
論文 参考訳(メタデータ) (2023-10-24T09:29:26Z) - ShaSTA-Fuse: Camera-LiDAR Sensor Fusion to Model Shape and
Spatio-Temporal Affinities for 3D Multi-Object Tracking [26.976216624424385]
3Dマルチオブジェクトトラッキング(MOT)は、自律移動エージェントが安全にシーンをナビゲートするために不可欠である。
我々は,カメラとLiDARセンサ情報を融合した3DMOTフレームワークの開発を目指している。
論文 参考訳(メタデータ) (2023-10-04T02:17:59Z) - MSMDFusion: Fusing LiDAR and Camera at Multiple Scales with Multi-Depth
Seeds for 3D Object Detection [89.26380781863665]
自律運転システムにおける高精度で信頼性の高い3次元物体検出を実現するためには,LiDARとカメラ情報の融合が不可欠である。
近年のアプローチでは、2次元カメラ画像の3次元空間への昇華点によるカメラ特徴のセマンティックな密度の探索が試みられている。
マルチグラニュラリティLiDARとカメラ機能とのマルチスケールなプログレッシブインタラクションに焦点を当てた,新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-07T12:29:29Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - LIF-Seg: LiDAR and Camera Image Fusion for 3D LiDAR Semantic
Segmentation [78.74202673902303]
本稿では,LiDAR分割のための粗大なLiDARとカメラフュージョンベースネットワーク(LIF-Seg)を提案する。
提案手法は,画像の文脈情報を完全に活用し,単純だが効果的な早期融合戦略を導入する。
これら2つのコンポーネントの協力により、効果的なカメラ-LiDAR融合が成功する。
論文 参考訳(メタデータ) (2021-08-17T08:53:11Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - Depth Estimation from Monocular Images and Sparse Radar Data [93.70524512061318]
本稿では,ディープニューラルネットワークを用いた単眼画像とレーダ点の融合により,より正確な深度推定を実現する可能性を検討する。
レーダ測定で発生するノイズが,既存の融合法の適用を妨げている主要な理由の1つであることが判明した。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
論文 参考訳(メタデータ) (2020-09-30T19:01:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。