論文の概要: L2RDaS: Synthesizing 4D Radar Tensors for Model Generalization via Dataset Expansion
- arxiv url: http://arxiv.org/abs/2503.03637v2
- Date: Thu, 22 May 2025 17:12:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:47.740987
- Title: L2RDaS: Synthesizing 4D Radar Tensors for Model Generalization via Dataset Expansion
- Title(参考訳): L2RDaS:データセット拡張によるモデル一般化のための4次元レーダテンソルの合成
- Authors: Woo-Jin Jung, Dong-Hee Paek, Seung-Hyun Kong,
- Abstract要約: 本稿では,LiDARデータから空間情報を伝達する4次元レーダテンソルを自動走行データセットから合成するフレームワークであるLiDAR-to-4Dレーダデータ合成(L2RDaS)を提案する。
L2RDaSは改良されたU-Netアーキテクチャを統合し、空間情報を効果的にキャプチャし、オブジェクト情報サプリメント(OBIS)モジュールを使用して反射率を高める。
L2RDaSは合成レーダテンソルを用いて実データセットを拡張してモデル一般化を改善し、平均4.25%のAP_BEV$と2.87%のAP_3Dを達成する
- 参考スコア(独自算出の注目度): 6.605694475813286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 4-dimensional (4D) radar is increasingly adopted in autonomous driving for perception tasks, owing to its robustness under adverse weather conditions. To better utilize the spatial information inherent in 4D radar data, recent deep learning methods have transitioned from using sparse point cloud to 4D radar tensors. However, the scarcity of publicly available 4D radar tensor datasets limits model generalization across diverse driving scenarios. Previous methods addressed this by synthesizing radar data, but the outputs did not fully exploit the spatial information characteristic of 4D radar. To overcome these limitations, we propose LiDAR-to-4D radar data synthesis (L2RDaS), a framework that synthesizes spatially informative 4D radar tensors from LiDAR data available in existing autonomous driving datasets. L2RDaS integrates a modified U-Net architecture to effectively capture spatial information and an object information supplement (OBIS) module to enhance reflection fidelity. This framework enables the synthesis of radar tensors across diverse driving scenarios without additional sensor deployment or data collection. L2RDaS improves model generalization by expanding real datasets with synthetic radar tensors, achieving an average increase of 4.25\% in ${{AP}_{BEV}}$ and 2.87\% in ${{AP}_{3D}}$ across three detection models. Additionally, L2RDaS supports ground-truth augmentation (GT-Aug) by embedding annotated objects into LiDAR data and synthesizing them into radar tensors, resulting in further average increases of 3.75\% in ${{AP}_{BEV}}$ and 4.03\% in ${{AP}_{3D}}$. The implementation will be available at https://github.com/kaist-avelab/K-Radar.
- Abstract(参考訳): 4次元(4D)レーダーは、悪天候下での堅牢性のため、認識タスクの自律走行にますます採用されている。
4Dレーダデータに固有の空間情報をよりよく活用するために、近年の深層学習法はスパース点雲から4Dレーダテンソルへ移行した。
しかし、公開されている4Dレーダテンソルデータセットの不足により、さまざまな駆動シナリオにおけるモデルの一般化が制限される。
従来の手法ではレーダデータを合成することでこの問題に対処していたが、出力は4次元レーダの空間情報特性を完全に活用しなかった。
これらの制約を克服するために,既存の自動運転データセットで利用可能なLiDARデータから空間的に情報伝達する4Dレーダテンソルを合成するフレームワークであるLiDAR-to-4Dレーダデータ合成(L2RDaS)を提案する。
L2RDaSは改良されたU-Netアーキテクチャを統合し、空間情報を効果的にキャプチャし、オブジェクト情報サプリメント(OBIS)モジュールを使用して反射率を高める。
このフレームワークは、センサの配置やデータ収集を必要とせずに、さまざまな駆動シナリオにまたがるレーダーテンソルの合成を可能にする。
L2RDaSは、合成レーダーテンソルを用いて実際のデータセットを拡張し、{{AP}_{BEV}}$で4.25\%、{{AP}_{3D}}$で2.87\%の平均的な増加を達成することにより、モデルの一般化を改善する。
さらに、L2RDaSは、注釈付きオブジェクトをLiDARデータに埋め込み、それらをレーダーテンソルに合成することで、GT-Augをサポートし、{{AP}_{BEV}}$が3.75 %、{{AP}_{3D}}$が4.03 %となる。
実装はhttps://github.com/kaist-avelab/K-Radar.comで公開される。
関連論文リスト
- ZFusion: An Effective Fuser of Camera and 4D Radar for 3D Object Perception in Autonomous Driving [7.037019489455008]
本研究では、4次元レーダと視覚のモダリティを融合した3次元物体検出手法ZFusionを提案する。
FP-DDCAフェイザーはTransformerブロックをパックし、異なるスケールのマルチモーダル機能をインタラクティブに融合する。
実験の結果、ZFusionは興味のある領域で最先端のmAPを達成した。
論文 参考訳(メタデータ) (2025-04-04T13:29:32Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - V2X-Radar: A Multi-modal Dataset with 4D Radar for Cooperative Perception [47.55064735186109]
V2X-Radarは、4Dレーダを特徴とする世界初の大規模実世界のマルチモーダルデータセットである。
データセットは20KのLiDARフレーム、40Kのカメライメージ、20Kの4Dレーダデータで構成され、5つのカテゴリに350Kの注釈付きボックスが含まれている。
様々な研究領域をサポートするために, 協調認識のためのV2X-Radar-C, 路面認識のためのV2X-Radar-I, 単車知覚のためのV2X-Radar-Vを確立した。
論文 参考訳(メタデータ) (2024-11-17T04:59:00Z) - RadarPillars: Efficient Object Detection from 4D Radar Point Clouds [42.9356088038035]
本稿では,柱型物体検出ネットワークRadarPillarsを提案する。
放射速度データを分解することにより、RadarPillarsは、View-of-Delftデータセットの最先端検出結果を大幅に上回る。
これはパラメータ数を大幅に削減し、既存のメソッドを効率面で上回り、エッジデバイス上でのリアルタイムパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-08-09T12:13:38Z) - Efficient 4D Radar Data Auto-labeling Method using LiDAR-based Object Detection Network [5.405156980077946]
既存の4Dレーダーデータセットには十分なセンサーデータとラベルがない。
これらの問題に対処するために,K-Radarデータセットにおける4次元レーダテンソル(4DRT)の自動ラベリング手法を提案する。
論文 参考訳(メタデータ) (2024-05-13T04:28:06Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - K-Radar: 4D Radar Object Detection for Autonomous Driving in Various
Weather Conditions [9.705678194028895]
KAIST-Radarは、新しい大規模オブジェクト検出データセットとベンチマークである。
4次元レーダーテンソル(4DRT)データの35Kフレームを含み、ドップラー、レンジ、方位、標高の寸法に沿って電力の測定を行う。
我々は、慎重に校正された高分解能ライダー、サラウンドステレオカメラ、RTK-GPSから補助的な測定を行う。
論文 参考訳(メタデータ) (2022-06-16T13:39:21Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。