論文の概要: SD4R: Sparse-to-Dense Learning for 3D Object Detection with 4D Radar
- arxiv url: http://arxiv.org/abs/2602.20653v1
- Date: Tue, 24 Feb 2026 07:57:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.661779
- Title: SD4R: Sparse-to-Dense Learning for 3D Object Detection with 4D Radar
- Title(参考訳): SD4R:4次元レーダを用いた3次元物体検出のためのスパース・ツー・デンス学習
- Authors: Xiaokai Bai, Jiahao Cheng, Songkai Wang, Yixuan Luo, Lianqing Zheng, Xiaohan Zhang, Si-Yuan Cao, Hui-Liang Shen,
- Abstract要約: 4Dレーダーによる計測は、3D知覚のための安価で耐候性のあるソリューションを提供する。
レーダー点雲の固有空間とノイズは、正確な3次元物体検出に重大な課題をもたらす。
本稿では,スパースレーダ点雲を密度密度表現に変換する新しいフレームワークであるSD4Rを提案する。
- 参考スコア(独自算出の注目度): 14.163132864968013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 4D radar measurements offer an affordable and weather-robust solution for 3D perception. However, the inherent sparsity and noise of radar point clouds present significant challenges for accurate 3D object detection, underscoring the need for effective and robust point clouds densification. Despite recent progress, existing densification methods often fail to address the extreme sparsity of 4D radar point clouds and exhibit limited robustness when processing scenes with a small number of points. In this paper, we propose SD4R, a novel framework that transforms sparse radar point clouds into dense representations. SD4R begins by utilizing a foreground point generator (FPG) to mitigate noise propagation and produce densified point clouds. Subsequently, a logit-query encoder (LQE) enhances conventional pillarization, resulting in robust feature representations. Through these innovations, our SD4R demonstrates strong capability in both noise reduction and foreground point densification. Extensive experiments conducted on the publicly available View-of-Delft dataset demonstrate that SD4R achieves state-of-the-art performance. Source code is available at https://github.com/lancelot0805/SD4R.
- Abstract(参考訳): 4Dレーダーによる計測は、3D知覚のための安価で耐候性のあるソリューションを提供する。
しかし、レーダー点雲の本質的な空間とノイズは、正確な3次元物体検出に重大な課題をもたらし、効果的で堅牢な点雲の密度化の必要性を強調している。
近年の進歩にもかかわらず、既存の密度化法は、4Dレーダーポイント雲の極端な間隔に対処できず、少数のポイントでシーンを処理する場合に限られた堅牢性を示す。
本稿では,スパースレーダ点雲を密度密度表現に変換する新しいフレームワークであるSD4Rを提案する。
SD4Rは、フォアグラウンドポイントジェネレータ(FPG)を使用してノイズ伝搬を緩和し、密度化された点雲を生成する。
その後、ロジットクエリエンコーダ(LQE)は従来のピラリゼーションを強化し、堅牢な特徴表現をもたらす。
これらのイノベーションを通じて、SD4Rはノイズ低減と前景点の密度化の両方において強力な能力を示す。
公開可能なView-of-Delftデータセット上で実施された大規模な実験は、SD4Rが最先端のパフォーマンスを達成することを実証している。
ソースコードはhttps://github.com/lancelot0805/SD4Rで入手できる。
関連論文リスト
- 4D-RaDiff: Latent Diffusion for 4D Radar Point Cloud Generation [10.945807584683726]
本研究では,物体検出装置の訓練および評価のための4次元レーダポイント雲を生成する新しいフレームワークを提案する。
提案された4D-RaDiffは、ラベルのないバウンディングボックスを高品質なレーダーアノテーションに変換し、既存のLiDARポイントクラウドデータをリアルなレーダーシーンに変換する。
論文 参考訳(メタデータ) (2025-12-16T09:43:05Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - Enhanced 3D Object Detection via Diverse Feature Representations of 4D Radar Tensor [5.038148262901536]
Raw 4D Radar (4DRT) は従来の点雲よりも豊かな空間情報とドップラー情報を提供する。
効率を保ちつつ、4DRTの有用性を最大化する新しい3Dオブジェクト検出フレームワークを提案する。
本稿では, RTNHモデルよりもAP_3Dが7.3%, AP_BEVが9.5%向上したことを示す。
論文 参考訳(メタデータ) (2025-02-10T02:48:56Z) - V2X-R: Cooperative LiDAR-4D Radar Fusion with Denoising Diffusion for 3D Object Detection [64.93675471780209]
我々は、LiDAR、カメラ、および4Dレーダを取り入れた初のシミュレーションV2XデータセットであるV2X-Rを提案する。
V2X-Rには12,079のシナリオがあり、LiDARと4Dレーダーポイント雲の37,727フレーム、150,908の画像、170,859の注釈付き3D車両バウンディングボックスがある。
本稿では,3次元物体検出のための新しいコラボレーティブLiDAR-4Dレーダ融合パイプラインを提案し,様々な融合戦略を用いて実装する。
論文 参考訳(メタデータ) (2024-11-13T07:41:47Z) - Real3D-AD: A Dataset of Point Cloud Anomaly Detection [75.56719157477661]
本稿では,高精度なクラウド異常検出データセットであるReal3D-ADを紹介する。
1,254個の高解像度の3Dアイテムが、各項目に4万から数百万のポイントがあり、Real3D-ADは高精度な3D産業異常検出のための最大のデータセットである。
本稿では,高精度点雲異常検出のためのベースライン手法が存在しないことを明らかにする,Real3D-ADの総合ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-09-23T00:43:38Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - SMURF: Spatial Multi-Representation Fusion for 3D Object Detection with
4D Imaging Radar [12.842457981088378]
本稿では,単一4次元イメージングレーダを用いた新しい3次元物体検出手法である空間多重表現融合(SMURF)を提案する。
SMURFは、狭角分解能とレーダ信号のマルチパス伝搬による測定精度の低下を緩和する。
The experimental evaluations on View-of-Delft (VoD) and TJ4DRadSet datasets showed the effective and generalization ability of SMURF。
論文 参考訳(メタデータ) (2023-07-20T11:33:46Z) - Sparse2Dense: Learning to Densify 3D Features for 3D Object Detection [85.08249413137558]
LiDARが生成する点雲は、最先端の3Dオブジェクト検出器の主要な情報源である。
小さい、遠く、不完全な点の少ない物体は、しばしば検出するのが困難である。
Sparse2Denseは、潜在空間における点雲の密度化を学習することで、3D検出性能を効率的に向上する新しいフレームワークである。
論文 参考訳(メタデータ) (2022-11-23T16:01:06Z) - Anchor-free 3D Single Stage Detector with Mask-Guided Attention for
Point Cloud [79.39041453836793]
我々は、点雲をアンカーフリーで検出する新しい1段3次元検出器を開発した。
ボクセルをベースとしたスパース3D特徴量からスパース2D特徴量マップに変換することでこれを克服する。
検出信頼度スコアとバウンディングボックス回帰の精度との相関性を改善するために,IoUに基づく検出信頼度再校正手法を提案する。
論文 参考訳(メタデータ) (2021-08-08T13:42:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。