論文の概要: 4D-RaDiff: Latent Diffusion for 4D Radar Point Cloud Generation
- arxiv url: http://arxiv.org/abs/2512.14235v1
- Date: Tue, 16 Dec 2025 09:43:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.665968
- Title: 4D-RaDiff: Latent Diffusion for 4D Radar Point Cloud Generation
- Title(参考訳): 4D-RaDiff: 4Dレーダ点雲生成のための潜時拡散
- Authors: Jimmie Kwok, Holger Caesar, Andras Palffy,
- Abstract要約: 本研究では,物体検出装置の訓練および評価のための4次元レーダポイント雲を生成する新しいフレームワークを提案する。
提案された4D-RaDiffは、ラベルのないバウンディングボックスを高品質なレーダーアノテーションに変換し、既存のLiDARポイントクラウドデータをリアルなレーダーシーンに変換する。
- 参考スコア(独自算出の注目度): 10.945807584683726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automotive radar has shown promising developments in environment perception due to its cost-effectiveness and robustness in adverse weather conditions. However, the limited availability of annotated radar data poses a significant challenge for advancing radar-based perception systems. To address this limitation, we propose a novel framework to generate 4D radar point clouds for training and evaluating object detectors. Unlike image-based diffusion, our method is designed to consider the sparsity and unique characteristics of radar point clouds by applying diffusion to a latent point cloud representation. Within this latent space, generation is controlled via conditioning at either the object or scene level. The proposed 4D-RaDiff converts unlabeled bounding boxes into high-quality radar annotations and transforms existing LiDAR point cloud data into realistic radar scenes. Experiments demonstrate that incorporating synthetic radar data of 4D-RaDiff as data augmentation method during training consistently improves object detection performance compared to training on real data only. In addition, pre-training on our synthetic data reduces the amount of required annotated radar data by up to 90% while achieving comparable object detection performance.
- Abstract(参考訳): 自動車レーダーは、悪天候条件下でのコスト効果と堅牢性のために、環境認識において有望な発展を見せている。
しかし、アノテートされたレーダーデータの限られた利用は、レーダベースの認識システムを前進させる上で大きな課題となる。
この制限に対処するために,物体検出器の訓練および評価を行うための4次元レーダポイント雲を生成する新しいフレームワークを提案する。
画像ベース拡散とは違って,潜在点雲表現に拡散を適用することにより,レーダ点雲の空間的および特異な特性を考察する。
この潜在空間内では、生成はオブジェクトまたはシーンレベルで条件付けによって制御される。
提案された4D-RaDiffは、ラベルのないバウンディングボックスを高品質なレーダーアノテーションに変換し、既存のLiDARポイントクラウドデータをリアルなレーダーシーンに変換する。
実験により,4D-RaDiffの合成レーダデータをトレーニング中のデータ拡張手法として組み込むことで,実データのみのトレーニングに比べてオブジェクト検出性能が一貫して向上することが示された。
さらに, 合成データの事前学習により, 必要なアノテートレーダデータの量は最大90%削減され, オブジェクト検出性能は同等である。
関連論文リスト
- RadarGen: Automotive Radar Point Cloud Generation from Cameras [64.69976771710057]
マルチビューカメラ画像からリアルな自動車用レーダー点雲を合成するための拡散モデルRadarGenを提案する。
RadarGenは、鳥の目視でレーダー計測を表現することで、レーダ領域への効率的な画像遅延拡散を適応する。
本稿では,RadarGenが特徴的レーダ計測分布を捕捉し,実データに基づいて学習した知覚モデルとのギャップを小さくすることを示す。
論文 参考訳(メタデータ) (2025-12-19T18:57:33Z) - RaLiFlow: Scene Flow Estimation with 4D Radar and LiDAR Point Clouds [10.906975408529895]
我々は、パブリックな現実世界の自動車のデータセットに基づいて、Radar-LiDARシーンフローデータセットを構築した。
4DレーダとLiDARのための最初の共同シーンフロー学習フレームワークであるRaLiFlowを紹介する。
提案手法は,既存のLiDAR法とレーダ方式の単一モード法とを有意差で比較した。
論文 参考訳(メタデータ) (2025-12-11T07:41:33Z) - Reproducing and Extending RaDelft 4D Radar with Camera-Assisted Labels [15.456760941404873]
カメラ誘導型レーダラベリングパイプラインは,人間のアノテーションに頼ることなく,レーダポイント雲の正確なラベルを生成することができることを示す。
これらの結果は、研究コミュニティがラベル付き4Dレーダデータのトレーニングと評価を可能にする再現可能な枠組みを確立する。
論文 参考訳(メタデータ) (2025-12-02T04:12:41Z) - CORENet: Cross-Modal 4D Radar Denoising Network with LiDAR Supervision for Autonomous Driving [6.251434533663502]
4Dレーダーによる物体検出は、悪天候下での頑丈さに大きな注目を集めている。
4次元レーダーポイント雲のスパースでノイズの多い性質は、効果的な知覚に重大な課題をもたらす。
我々は、LiDAR監視を利用してノイズパターンを識別する新しいクロスモーダル・デノナイズ・フレームワークであるCORENetを提案する。
論文 参考訳(メタデータ) (2025-08-19T03:30:21Z) - RadarPillars: Efficient Object Detection from 4D Radar Point Clouds [42.9356088038035]
本稿では,柱型物体検出ネットワークRadarPillarsを提案する。
放射速度データを分解することにより、RadarPillarsは、View-of-Delftデータセットの最先端検出結果を大幅に上回る。
これはパラメータ数を大幅に削減し、既存のメソッドを効率面で上回り、エッジデバイス上でのリアルタイムパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-08-09T12:13:38Z) - RadarOcc: Robust 3D Occupancy Prediction with 4D Imaging Radar [15.776076554141687]
3D占有に基づく知覚パイプラインは、かなり進歩した自律運転を持つ。
現在の方法では、LiDARやカメラの入力を3D占有率予測に頼っている。
本稿では,4次元イメージングレーダセンサを用いた3次元占有予測手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T21:48:17Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。