論文の概要: 4D-RaDiff: Latent Diffusion for 4D Radar Point Cloud Generation
- arxiv url: http://arxiv.org/abs/2512.14235v1
- Date: Tue, 16 Dec 2025 09:43:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.665968
- Title: 4D-RaDiff: Latent Diffusion for 4D Radar Point Cloud Generation
- Title(参考訳): 4D-RaDiff: 4Dレーダ点雲生成のための潜時拡散
- Authors: Jimmie Kwok, Holger Caesar, Andras Palffy,
- Abstract要約: 本研究では,物体検出装置の訓練および評価のための4次元レーダポイント雲を生成する新しいフレームワークを提案する。
提案された4D-RaDiffは、ラベルのないバウンディングボックスを高品質なレーダーアノテーションに変換し、既存のLiDARポイントクラウドデータをリアルなレーダーシーンに変換する。
- 参考スコア(独自算出の注目度): 10.945807584683726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automotive radar has shown promising developments in environment perception due to its cost-effectiveness and robustness in adverse weather conditions. However, the limited availability of annotated radar data poses a significant challenge for advancing radar-based perception systems. To address this limitation, we propose a novel framework to generate 4D radar point clouds for training and evaluating object detectors. Unlike image-based diffusion, our method is designed to consider the sparsity and unique characteristics of radar point clouds by applying diffusion to a latent point cloud representation. Within this latent space, generation is controlled via conditioning at either the object or scene level. The proposed 4D-RaDiff converts unlabeled bounding boxes into high-quality radar annotations and transforms existing LiDAR point cloud data into realistic radar scenes. Experiments demonstrate that incorporating synthetic radar data of 4D-RaDiff as data augmentation method during training consistently improves object detection performance compared to training on real data only. In addition, pre-training on our synthetic data reduces the amount of required annotated radar data by up to 90% while achieving comparable object detection performance.
- Abstract(参考訳): 自動車レーダーは、悪天候条件下でのコスト効果と堅牢性のために、環境認識において有望な発展を見せている。
しかし、アノテートされたレーダーデータの限られた利用は、レーダベースの認識システムを前進させる上で大きな課題となる。
この制限に対処するために,物体検出器の訓練および評価を行うための4次元レーダポイント雲を生成する新しいフレームワークを提案する。
画像ベース拡散とは違って,潜在点雲表現に拡散を適用することにより,レーダ点雲の空間的および特異な特性を考察する。
この潜在空間内では、生成はオブジェクトまたはシーンレベルで条件付けによって制御される。
提案された4D-RaDiffは、ラベルのないバウンディングボックスを高品質なレーダーアノテーションに変換し、既存のLiDARポイントクラウドデータをリアルなレーダーシーンに変換する。
実験により,4D-RaDiffの合成レーダデータをトレーニング中のデータ拡張手法として組み込むことで,実データのみのトレーニングに比べてオブジェクト検出性能が一貫して向上することが示された。
さらに, 合成データの事前学習により, 必要なアノテートレーダデータの量は最大90%削減され, オブジェクト検出性能は同等である。
関連論文リスト
- RadarPillars: Efficient Object Detection from 4D Radar Point Clouds [42.9356088038035]
本稿では,柱型物体検出ネットワークRadarPillarsを提案する。
放射速度データを分解することにより、RadarPillarsは、View-of-Delftデータセットの最先端検出結果を大幅に上回る。
これはパラメータ数を大幅に削減し、既存のメソッドを効率面で上回り、エッジデバイス上でのリアルタイムパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-08-09T12:13:38Z) - RadarOcc: Robust 3D Occupancy Prediction with 4D Imaging Radar [15.776076554141687]
3D占有に基づく知覚パイプラインは、かなり進歩した自律運転を持つ。
現在の方法では、LiDARやカメラの入力を3D占有率予測に頼っている。
本稿では,4次元イメージングレーダセンサを用いた3次元占有予測手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T21:48:17Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。