論文の概要: L2RDaS: Synthesizing 4D Radar Tensors for Model Generalization via Dataset Expansion
- arxiv url: http://arxiv.org/abs/2503.03637v2
- Date: Thu, 22 May 2025 17:12:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:47.740987
- Title: L2RDaS: Synthesizing 4D Radar Tensors for Model Generalization via Dataset Expansion
- Title(参考訳): L2RDaS:データセット拡張によるモデル一般化のための4次元レーダテンソルの合成
- Authors: Woo-Jin Jung, Dong-Hee Paek, Seung-Hyun Kong,
- Abstract要約: 本稿では,LiDARデータから空間情報を伝達する4次元レーダテンソルを自動走行データセットから合成するフレームワークであるLiDAR-to-4Dレーダデータ合成(L2RDaS)を提案する。
L2RDaSは改良されたU-Netアーキテクチャを統合し、空間情報を効果的にキャプチャし、オブジェクト情報サプリメント(OBIS)モジュールを使用して反射率を高める。
L2RDaSは合成レーダテンソルを用いて実データセットを拡張してモデル一般化を改善し、平均4.25%のAP_BEV$と2.87%のAP_3Dを達成する
- 参考スコア(独自算出の注目度): 6.605694475813286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 4-dimensional (4D) radar is increasingly adopted in autonomous driving for perception tasks, owing to its robustness under adverse weather conditions. To better utilize the spatial information inherent in 4D radar data, recent deep learning methods have transitioned from using sparse point cloud to 4D radar tensors. However, the scarcity of publicly available 4D radar tensor datasets limits model generalization across diverse driving scenarios. Previous methods addressed this by synthesizing radar data, but the outputs did not fully exploit the spatial information characteristic of 4D radar. To overcome these limitations, we propose LiDAR-to-4D radar data synthesis (L2RDaS), a framework that synthesizes spatially informative 4D radar tensors from LiDAR data available in existing autonomous driving datasets. L2RDaS integrates a modified U-Net architecture to effectively capture spatial information and an object information supplement (OBIS) module to enhance reflection fidelity. This framework enables the synthesis of radar tensors across diverse driving scenarios without additional sensor deployment or data collection. L2RDaS improves model generalization by expanding real datasets with synthetic radar tensors, achieving an average increase of 4.25\% in ${{AP}_{BEV}}$ and 2.87\% in ${{AP}_{3D}}$ across three detection models. Additionally, L2RDaS supports ground-truth augmentation (GT-Aug) by embedding annotated objects into LiDAR data and synthesizing them into radar tensors, resulting in further average increases of 3.75\% in ${{AP}_{BEV}}$ and 4.03\% in ${{AP}_{3D}}$. The implementation will be available at https://github.com/kaist-avelab/K-Radar.
- Abstract(参考訳): 4次元(4D)レーダーは、悪天候下での堅牢性のため、認識タスクの自律走行にますます採用されている。
4Dレーダデータに固有の空間情報をよりよく活用するために、近年の深層学習法はスパース点雲から4Dレーダテンソルへ移行した。
しかし、公開されている4Dレーダテンソルデータセットの不足により、さまざまな駆動シナリオにおけるモデルの一般化が制限される。
従来の手法ではレーダデータを合成することでこの問題に対処していたが、出力は4次元レーダの空間情報特性を完全に活用しなかった。
これらの制約を克服するために,既存の自動運転データセットで利用可能なLiDARデータから空間的に情報伝達する4Dレーダテンソルを合成するフレームワークであるLiDAR-to-4Dレーダデータ合成(L2RDaS)を提案する。
L2RDaSは改良されたU-Netアーキテクチャを統合し、空間情報を効果的にキャプチャし、オブジェクト情報サプリメント(OBIS)モジュールを使用して反射率を高める。
このフレームワークは、センサの配置やデータ収集を必要とせずに、さまざまな駆動シナリオにまたがるレーダーテンソルの合成を可能にする。
L2RDaSは、合成レーダーテンソルを用いて実際のデータセットを拡張し、{{AP}_{BEV}}$で4.25\%、{{AP}_{3D}}$で2.87\%の平均的な増加を達成することにより、モデルの一般化を改善する。
さらに、L2RDaSは、注釈付きオブジェクトをLiDARデータに埋め込み、それらをレーダーテンソルに合成することで、GT-Augをサポートし、{{AP}_{BEV}}$が3.75 %、{{AP}_{3D}}$が4.03 %となる。
実装はhttps://github.com/kaist-avelab/K-Radar.comで公開される。
関連論文リスト
- RadarSplat: Radar Gaussian Splatting for High-Fidelity Data Synthesis and 3D Reconstruction of Autonomous Driving Scenes [8.117954246685976]
高忠実度3Dシーン再構成は、既存のデータセットから新たなデータ生成を可能にすることで、自動運転において重要な役割を果たす。
レーダーは、雨や霧、雪など、光学センサーがしばしば苦労する悪天候の状況において、頑丈さのために自律運転に不可欠である。
本稿では,ガウススプラッティングと新しいレーダノイズモデリングを統合し,リアルなレーダデータ合成と3次元再構成を実現するRadarSplatを提案する。
論文 参考訳(メタデータ) (2025-06-02T07:14:27Z) - 4D-ROLLS: 4D Radar Occupancy Learning via LiDAR Supervision [7.099012213719072]
我々は,LiDAR点雲を監視信号として用いた4Dレーダの4D-ROLLSを提案する。
モデルは、下流タスクのBEVセグメンテーションとポイントクラウド占有率予測にシームレスに転送される。
この軽量ネットワークにより、4D-ROLLSモデルは4060 GPUで約30Hzの高速な推論速度を実現することができる。
論文 参考訳(メタデータ) (2025-05-20T04:12:44Z) - ZFusion: An Effective Fuser of Camera and 4D Radar for 3D Object Perception in Autonomous Driving [7.037019489455008]
本研究では、4次元レーダと視覚のモダリティを融合した3次元物体検出手法ZFusionを提案する。
FP-DDCAフェイザーはTransformerブロックをパックし、異なるスケールのマルチモーダル機能をインタラクティブに融合する。
実験の結果、ZFusionは興味のある領域で最先端のmAPを達成した。
論文 参考訳(メタデータ) (2025-04-04T13:29:32Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - V2X-Radar: A Multi-modal Dataset with 4D Radar for Cooperative Perception [47.55064735186109]
V2X-Radarは、4Dレーダを特徴とする世界初の大規模実世界のマルチモーダルデータセットである。
データセットは20KのLiDARフレーム、40Kのカメライメージ、20Kの4Dレーダデータで構成され、5つのカテゴリに350Kの注釈付きボックスが含まれている。
様々な研究領域をサポートするために, 協調認識のためのV2X-Radar-C, 路面認識のためのV2X-Radar-I, 単車知覚のためのV2X-Radar-Vを確立した。
論文 参考訳(メタデータ) (2024-11-17T04:59:00Z) - RadarPillars: Efficient Object Detection from 4D Radar Point Clouds [42.9356088038035]
本稿では,柱型物体検出ネットワークRadarPillarsを提案する。
放射速度データを分解することにより、RadarPillarsは、View-of-Delftデータセットの最先端検出結果を大幅に上回る。
これはパラメータ数を大幅に削減し、既存のメソッドを効率面で上回り、エッジデバイス上でのリアルタイムパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-08-09T12:13:38Z) - RadarOcc: Robust 3D Occupancy Prediction with 4D Imaging Radar [15.776076554141687]
3D占有に基づく知覚パイプラインは、かなり進歩した自律運転を持つ。
現在の方法では、LiDARやカメラの入力を3D占有率予測に頼っている。
本稿では,4次元イメージングレーダセンサを用いた3次元占有予測手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T21:48:17Z) - Efficient 4D Radar Data Auto-labeling Method using LiDAR-based Object Detection Network [5.405156980077946]
既存の4Dレーダーデータセットには十分なセンサーデータとラベルがない。
これらの問題に対処するために,K-Radarデータセットにおける4次元レーダテンソル(4DRT)の自動ラベリング手法を提案する。
論文 参考訳(メタデータ) (2024-05-13T04:28:06Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - K-Radar: 4D Radar Object Detection for Autonomous Driving in Various
Weather Conditions [9.705678194028895]
KAIST-Radarは、新しい大規模オブジェクト検出データセットとベンチマークである。
4次元レーダーテンソル(4DRT)データの35Kフレームを含み、ドップラー、レンジ、方位、標高の寸法に沿って電力の測定を行う。
我々は、慎重に校正された高分解能ライダー、サラウンドステレオカメラ、RTK-GPSから補助的な測定を行う。
論文 参考訳(メタデータ) (2022-06-16T13:39:21Z) - LiDAR-based 4D Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,両タスクの現在の最先端手法よりも優れた精度を実現する。
DS-Netを4次元パノプティカルLiDARセグメンテーションに拡張し、一列のLiDARフレーム上で時間的に統一されたインスタンスクラスタリングを行う。
論文 参考訳(メタデータ) (2022-03-14T15:25:42Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。