論文の概要: HyperDet: 3D Object Detection with Hyper 4D Radar Point Clouds
- arxiv url: http://arxiv.org/abs/2602.11554v1
- Date: Thu, 12 Feb 2026 04:21:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.636301
- Title: HyperDet: 3D Object Detection with Hyper 4D Radar Point Clouds
- Title(参考訳): HyperDet: Hyper 4D Radar Point Clouds を用いた3次元物体検出
- Authors: Yichun Xiao, Runwei Guan, Fangqiang Ding,
- Abstract要約: 検出器に依存しないレーダーのみの3D検出フレームワークであるHyperDetを提案する。
標準的なLiDAR指向検出器のためのタスク対応のハイパー4Dレーダーポイントクラウドを構築している。
MAN TruckScenesでは、HyperDetはVoxelNeXtとCenterPointによる生のレーダー入力よりも一貫して改善されている。
- 参考スコア(独自算出の注目度): 7.899148878601621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 4D mmWave radar provides weather-robust, velocity-aware measurements and is more cost-effective than LiDAR. However, radar-only 3D detection still trails LiDAR-based systems because radar point clouds are sparse, irregular, and often corrupted by multipath noise, yielding weak and unstable geometry. We present HyperDet, a detector-agnostic radar-only 3D detection framework that constructs a task-aware hyper 4D radar point cloud for standard LiDAR-oriented detectors. HyperDet aggregates returns from multiple surround-view 4D radars over consecutive frames to improve coverage and density, then applies geometry-aware cross-sensor consensus validation with a lightweight self-consistency check outside overlap regions to suppress inconsistent returns. It further integrates a foreground-focused diffusion module with training-time mixed radar-LiDAR supervision to densify object structures while lifting radar attributes (e.g., Doppler, RCS); the model is distilled into a consistency model for single-step inference. On MAN TruckScenes, HyperDet consistently improves over raw radar inputs with VoxelNeXt and CenterPoint, partially narrowing the radar-LiDAR gap. These results show that input-level refinement enables radar to better leverage LiDAR-oriented detectors without architectural modifications.
- Abstract(参考訳): 4D mmWave レーダーは風速を計測し、LiDAR よりも費用対効果が高い。
しかし、レーダーのみの3D検出は、レーダーポイント雲が希薄で不規則で、しばしばマルチパスノイズによって破損し、弱く不安定な形状になるため、LiDARベースのシステムに追随する。
We present HyperDet, a detector-agnostic radar-only 3D detection framework that constructing a task-ware hyper 4D radar point cloud for standard LiDAR-oriented detectors。
HyperDetは、連続するフレーム上の複数のサラウンドビュー4Dレーダからのリターンを集約し、カバレッジと密度を改善する。
さらに、レーダー特性(例えばドップラー、RCS)を持ち上げながらオブジェクト構造を密度化するための訓練時間混合レーダとLiDARの監督と、前景焦点拡散モジュールを統合し、モデルは単一ステップ推論のための一貫性モデルに蒸留される。
MAN TruckScenesでは、HyperDetはVoxelNeXtとCenterPointで生のレーダー入力を継続的に改善し、レーダーとLiDARのギャップを部分的に狭める。
これらの結果から、入力レベルの改良により、レーダーはアーキテクチャ変更なしにLiDAR指向検出器をよりよく活用できることが示された。
関連論文リスト
- RadarGen: Automotive Radar Point Cloud Generation from Cameras [64.69976771710057]
マルチビューカメラ画像からリアルな自動車用レーダー点雲を合成するための拡散モデルRadarGenを提案する。
RadarGenは、鳥の目視でレーダー計測を表現することで、レーダ領域への効率的な画像遅延拡散を適応する。
本稿では,RadarGenが特徴的レーダ計測分布を捕捉し,実データに基づいて学習した知覚モデルとのギャップを小さくすることを示す。
論文 参考訳(メタデータ) (2025-12-19T18:57:33Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - TransRAD: Retentive Vision Transformer for Enhanced Radar Object Detection [6.163747364795787]
本稿では,新しい3次元レーダ物体検出モデルであるTransRADを提案する。
本研究では、ディープレーダオブジェクト検出における重複境界ボックスの共通問題を軽減するために、位置認識型NMSを提案する。
その結果,TransRADは2次元および3次元のレーダ検出タスクにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2025-01-29T20:21:41Z) - V2X-R: Cooperative LiDAR-4D Radar Fusion with Denoising Diffusion for 3D Object Detection [64.93675471780209]
我々は、LiDAR、カメラ、および4Dレーダを取り入れた初のシミュレーションV2XデータセットであるV2X-Rを提案する。
V2X-Rには12,079のシナリオがあり、LiDARと4Dレーダーポイント雲の37,727フレーム、150,908の画像、170,859の注釈付き3D車両バウンディングボックスがある。
本稿では,3次元物体検出のための新しいコラボレーティブLiDAR-4Dレーダ融合パイプラインを提案し,様々な融合戦略を用いて実装する。
論文 参考訳(メタデータ) (2024-11-13T07:41:47Z) - RadarOcc: Robust 3D Occupancy Prediction with 4D Imaging Radar [15.776076554141687]
3D占有に基づく知覚パイプラインは、かなり進歩した自律運転を持つ。
現在の方法では、LiDARやカメラの入力を3D占有率予測に頼っている。
本稿では,4次元イメージングレーダセンサを用いた3次元占有予測手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T21:48:17Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。