論文の概要: 4D Radar Ground Truth Augmentation with LiDAR-to-4D Radar Data Synthesis
- arxiv url: http://arxiv.org/abs/2503.03637v1
- Date: Wed, 05 Mar 2025 16:16:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 17:18:41.198729
- Title: 4D Radar Ground Truth Augmentation with LiDAR-to-4D Radar Data Synthesis
- Title(参考訳): LiDAR-to-4Dレーダデータ合成による4次元レーダー地中真実化
- Authors: Woo-Jin Jung, Dong-Hee Paek, Seung-Hyun Kong,
- Abstract要約: GT-Augは、LiDARに基づく物体検出の一般的な方法である。
4DR GT-Aug を用いた 4D レーダグラウンド・トゥルース・オーグメンテーションを提案する。
提案手法はまずLiDARデータを拡張し,LiDAR-to-4D Radarデータ合成(L2RDaS)モジュールを介して4D Radarデータに変換する。
そうすることで、4D Radarのデータ分布を生み出します。
- 参考スコア(独自算出の注目度): 6.605694475813286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ground truth augmentation (GT-Aug) is a common method for LiDAR-based object detection, as it enhances object density by leveraging ground truth bounding boxes (GT bboxes). However, directly applying GT-Aug to 4D Radar tensor data overlooks important measurements outside the GT bboxes-such as sidelobes-leading to synthetic distributions that deviate from real-world 4D Radar data. To address this limitation, we propose 4D Radar Ground Truth Augmentation (4DR GT-Aug). Our approach first augments LiDAR data and then converts it to 4D Radar data via a LiDAR-to-4D Radar data synthesis (L2RDaS) module, which explicitly accounts for measurements both inside and outside GT bboxes. In doing so, it produces 4D Radar data distributions that more closely resemble real-world measurements, thereby improving object detection accuracy. Experiments on the K-Radar dataset show that the proposed method achieves improved performance compared to conventional GT-Aug in object detection for 4D Radar. The implementation code is available at https://github.com/kaist-avelab/K-Radar.
- Abstract(参考訳): グラウンド・真理拡張(GT-Aug)は、グラウンド・真理境界ボックス(GT bbox)を活用して物体密度を高めるため、LiDARに基づく物体検出の一般的な方法である。
しかし、GT-Augを4D Radarテンソルデータに直接適用すると、現実世界の4D Radarデータから逸脱する合成分布にサイドローブを誘導するなど、GT bboxesの外で重要な測定結果を見落としてしまう。
この制限に対処するため,4DR GT-Aug (4D Radar Ground Truth Augmentation) を提案する。
提案手法はまずLiDARデータを拡張し,そのデータをLiDAR-to-4D Radarデータ合成(L2RDaS)モジュール経由で4D Radarデータに変換する。
そうすることで、4Dレーダのデータ分布を生み出すことができ、それによって物体の検出精度が向上する。
K-Radarデータセットを用いた実験により,提案手法は従来のGT-Augによる4次元レーダの物体検出と比較して性能が向上することが示された。
実装コードはhttps://github.com/kaist-avelab/K-Radar.comで公開されている。
関連論文リスト
- RadarSplat: Radar Gaussian Splatting for High-Fidelity Data Synthesis and 3D Reconstruction of Autonomous Driving Scenes [8.117954246685976]
高忠実度3Dシーン再構成は、既存のデータセットから新たなデータ生成を可能にすることで、自動運転において重要な役割を果たす。
レーダーは、雨や霧、雪など、光学センサーがしばしば苦労する悪天候の状況において、頑丈さのために自律運転に不可欠である。
本稿では,ガウススプラッティングと新しいレーダノイズモデリングを統合し,リアルなレーダデータ合成と3次元再構成を実現するRadarSplatを提案する。
論文 参考訳(メタデータ) (2025-06-02T07:14:27Z) - 4D-ROLLS: 4D Radar Occupancy Learning via LiDAR Supervision [7.099012213719072]
我々は,LiDAR点雲を監視信号として用いた4Dレーダの4D-ROLLSを提案する。
モデルは、下流タスクのBEVセグメンテーションとポイントクラウド占有率予測にシームレスに転送される。
この軽量ネットワークにより、4D-ROLLSモデルは4060 GPUで約30Hzの高速な推論速度を実現することができる。
論文 参考訳(メタデータ) (2025-05-20T04:12:44Z) - ZFusion: An Effective Fuser of Camera and 4D Radar for 3D Object Perception in Autonomous Driving [7.037019489455008]
本研究では、4次元レーダと視覚のモダリティを融合した3次元物体検出手法ZFusionを提案する。
FP-DDCAフェイザーはTransformerブロックをパックし、異なるスケールのマルチモーダル機能をインタラクティブに融合する。
実験の結果、ZFusionは興味のある領域で最先端のmAPを達成した。
論文 参考訳(メタデータ) (2025-04-04T13:29:32Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - V2X-Radar: A Multi-modal Dataset with 4D Radar for Cooperative Perception [47.55064735186109]
V2X-Radarは、4Dレーダを特徴とする世界初の大規模実世界のマルチモーダルデータセットである。
データセットは20KのLiDARフレーム、40Kのカメライメージ、20Kの4Dレーダデータで構成され、5つのカテゴリに350Kの注釈付きボックスが含まれている。
様々な研究領域をサポートするために, 協調認識のためのV2X-Radar-C, 路面認識のためのV2X-Radar-I, 単車知覚のためのV2X-Radar-Vを確立した。
論文 参考訳(メタデータ) (2024-11-17T04:59:00Z) - RadarPillars: Efficient Object Detection from 4D Radar Point Clouds [42.9356088038035]
本稿では,柱型物体検出ネットワークRadarPillarsを提案する。
放射速度データを分解することにより、RadarPillarsは、View-of-Delftデータセットの最先端検出結果を大幅に上回る。
これはパラメータ数を大幅に削減し、既存のメソッドを効率面で上回り、エッジデバイス上でのリアルタイムパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-08-09T12:13:38Z) - RadarOcc: Robust 3D Occupancy Prediction with 4D Imaging Radar [15.776076554141687]
3D占有に基づく知覚パイプラインは、かなり進歩した自律運転を持つ。
現在の方法では、LiDARやカメラの入力を3D占有率予測に頼っている。
本稿では,4次元イメージングレーダセンサを用いた3次元占有予測手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T21:48:17Z) - Efficient 4D Radar Data Auto-labeling Method using LiDAR-based Object Detection Network [5.405156980077946]
既存の4Dレーダーデータセットには十分なセンサーデータとラベルがない。
これらの問題に対処するために,K-Radarデータセットにおける4次元レーダテンソル(4DRT)の自動ラベリング手法を提案する。
論文 参考訳(メタデータ) (2024-05-13T04:28:06Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - K-Radar: 4D Radar Object Detection for Autonomous Driving in Various
Weather Conditions [9.705678194028895]
KAIST-Radarは、新しい大規模オブジェクト検出データセットとベンチマークである。
4次元レーダーテンソル(4DRT)データの35Kフレームを含み、ドップラー、レンジ、方位、標高の寸法に沿って電力の測定を行う。
我々は、慎重に校正された高分解能ライダー、サラウンドステレオカメラ、RTK-GPSから補助的な測定を行う。
論文 参考訳(メタデータ) (2022-06-16T13:39:21Z) - LiDAR-based 4D Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,両タスクの現在の最先端手法よりも優れた精度を実現する。
DS-Netを4次元パノプティカルLiDARセグメンテーションに拡張し、一列のLiDARフレーム上で時間的に統一されたインスタンスクラスタリングを行う。
論文 参考訳(メタデータ) (2022-03-14T15:25:42Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。