論文の概要: CORENet: Cross-Modal 4D Radar Denoising Network with LiDAR Supervision for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2508.13485v1
- Date: Tue, 19 Aug 2025 03:30:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.784949
- Title: CORENet: Cross-Modal 4D Radar Denoising Network with LiDAR Supervision for Autonomous Driving
- Title(参考訳): CORENet: 自動運転のためのLiDARスーパービジョンを備えたクロスモーダル4Dレーダーデノイングネットワーク
- Authors: Fuyang Liu, Jilin Mei, Fangyuan Mao, Chen Min, Yan Xing, Yu Hu,
- Abstract要約: 4Dレーダーによる物体検出は、悪天候下での頑丈さに大きな注目を集めている。
4次元レーダーポイント雲のスパースでノイズの多い性質は、効果的な知覚に重大な課題をもたらす。
我々は、LiDAR監視を利用してノイズパターンを識別する新しいクロスモーダル・デノナイズ・フレームワークであるCORENetを提案する。
- 参考スコア(独自算出の注目度): 6.251434533663502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 4D radar-based object detection has garnered great attention for its robustness in adverse weather conditions and capacity to deliver rich spatial information across diverse driving scenarios. Nevertheless, the sparse and noisy nature of 4D radar point clouds poses substantial challenges for effective perception. To address the limitation, we present CORENet, a novel cross-modal denoising framework that leverages LiDAR supervision to identify noise patterns and extract discriminative features from raw 4D radar data. Designed as a plug-and-play architecture, our solution enables seamless integration into voxel-based detection frameworks without modifying existing pipelines. Notably, the proposed method only utilizes LiDAR data for cross-modal supervision during training while maintaining full radar-only operation during inference. Extensive evaluation on the challenging Dual-Radar dataset, which is characterized by elevated noise level, demonstrates the effectiveness of our framework in enhancing detection robustness. Comprehensive experiments validate that CORENet achieves superior performance compared to existing mainstream approaches.
- Abstract(参考訳): 4Dレーダーによる物体検出は、悪天候条件の頑丈さと、多様な運転シナリオにまたがる豊富な空間情報を提供する能力で大きな注目を集めている。
それでも、4Dレーダーポイント雲のスパースでノイズの多い性質は、効果的な知覚に重大な課題をもたらす。
この制限に対処するため、我々は、LiDAR監視を利用してノイズパターンを特定し、生の4Dレーダデータから識別的特徴を抽出する新しいクロスモーダル・デノナイジングフレームワークであるCORENetを提案する。
プラグイン・アンド・プレイアーキテクチャとして設計された当社のソリューションは,既存のパイプラインを変更することなく,voxelベースの検出フレームワークへのシームレスな統合を可能にする。
特に,提案手法は,レーダのみの完全な動作を維持しながら,トレーニング中の相互監視のためにのみLiDARデータを利用する。
高い騒音レベルを特徴とするDual-Radarデータセットの大規模評価は,検出堅牢性を高める上でのフレームワークの有効性を示す。
総合的な実験により、CORENetは既存の主流アプローチよりも優れたパフォーマンスを達成している。
関連論文リスト
- ELMAR: Enhancing LiDAR Detection with 4D Radar Motion Awareness and Cross-modal Uncertainty [3.1212590312985986]
本稿では,4次元レーダの動作状態とモード間不確実性により強化されたLiDAR検出フレームワークを提案する。
運転回廊内でのmAPは74.89%, 運転回廊内88.70%であった。
論文 参考訳(メタデータ) (2025-06-22T09:28:14Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - RadarOcc: Robust 3D Occupancy Prediction with 4D Imaging Radar [15.776076554141687]
3D占有に基づく知覚パイプラインは、かなり進歩した自律運転を持つ。
現在の方法では、LiDARやカメラの入力を3D占有率予測に頼っている。
本稿では,4次元イメージングレーダセンサを用いた3次元占有予測手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T21:48:17Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。