論文の概要: RADE-Net: Robust Attention Network for Radar-Only Object Detection in Adverse Weather
- arxiv url: http://arxiv.org/abs/2602.19994v1
- Date: Mon, 23 Feb 2026 16:01:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.894891
- Title: RADE-Net: Robust Attention Network for Radar-Only Object Detection in Adverse Weather
- Title(参考訳): RADE-Net: 逆気象下でのレーダー専用物体検出のためのロバストアテンションネットワーク
- Authors: Christof Leitgeb, Thomas Puchleitner, Max Peter Ronecker, Daniel Watzenig,
- Abstract要約: 高速フーリエ変換4Dレンジ・アジマス・ドップラー・エレベータ(RADE)テンソルの3次元投影法を提案する。
本手法では, ドップラーと標高の豊富な特性を保ちながら, 1フレームで必要なデータサイズを91.9%削減する。
大規模K-Radarデータセットを用いて,複数の異なる道路利用者と各種気象条件下での現場でのモデルの評価を行った。
- 参考スコア(独自算出の注目度): 4.199844472131922
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automotive perception systems are obligated to meet high requirements. While optical sensors such as Camera and Lidar struggle in adverse weather conditions, Radar provides a more robust perception performance, effectively penetrating fog, rain, and snow. Since full Radar tensors have large data sizes and very few datasets provide them, most Radar-based approaches work with sparse point clouds or 2D projections, which can result in information loss. Additionally, deep learning methods show potential to extract richer and more dense features from low level Radar data and therefore significantly increase the perception performance. Therefore, we propose a 3D projection method for fast-Fourier-transformed 4D Range-Azimuth-Doppler-Elevation (RADE) tensors. Our method preserves rich Doppler and Elevation features while reducing the required data size for a single frame by 91.9% compared to a full tensor, thus achieving higher training and inference speed as well as lower model complexity. We introduce RADE-Net, a lightweight model tailored to 3D projections of the RADE tensor. The backbone enables exploitation of low-level and high-level cues of Radar tensors with spatial and channel-attention. The decoupled detection heads predict object center-points directly in the Range-Azimuth domain and regress rotated 3D bounding boxes from rich feature maps in the cartesian scene. We evaluate the model on scenes with multiple different road users and under various weather conditions on the large-scale K-Radar dataset and achieve a 16.7% improvement compared to their baseline, as well as 6.5% improvement over current Radar-only models. Additionally, we outperform several Lidar approaches in scenarios with adverse weather conditions. The code is available under https://github.com/chr-is-tof/RADE-Net.
- Abstract(参考訳): 自動車認識システムは高い要求を満たすことが義務付けられている。
カメラやライダーのような光学センサーは悪天候に苦しむが、レーダーはより堅牢な認識性能を提供し、霧や雨、雪を効果的に浸透させる。
フルRadarテンソルは大きなデータサイズを持ち、データセットがほとんどないため、Radarベースのほとんどのアプローチはスパースポイントクラウドや2Dプロジェクションで動作するため、情報損失につながる可能性がある。
さらに,低レベルレーダデータからよりリッチで高密度な特徴を抽出し,認識性能を著しく向上させることができる。
そこで本研究では,高速フーリエ変換4Dレンジ・アジマス・ドップラー・エレベータ(RADE)テンソルの3次元投影法を提案する。
本手法は,1フレームで必要となるデータサイズをフルテンソルと比較して91.9%削減しつつ,豊富なドップラー・標高特性を保ちながら,トレーニング・推論速度の向上とモデル複雑性の低減を実現している。
RADEテンソルの3次元投影に適した軽量モデルであるRADE-Netを紹介する。
バックボーンは、空間的およびチャネル的意図を持ったレーダーテンソルの低レベルおよび高レベルキューの活用を可能にする。
分離された検出ヘッドは、レンジ・アジマス領域のオブジェクト中心点を直接予測し、カルデシアンシーンのリッチな特徴写像から3D境界ボックスを回帰回転させた。
複数の異なる道路利用者と大規模K-Radarデータセットの様々な気象条件下での現場でのモデルを評価し、ベースラインと比較して16.7%改善し、現在のRadarのみモデルよりも6.5%改善した。
さらに、悪天候のシナリオでは、いくつかのLidarアプローチよりも優れています。
コードはhttps://github.com/chr-is-tof/RADE-Netで入手できる。
関連論文リスト
- TacoDepth: Towards Efficient Radar-Camera Depth Estimation with One-stage Fusion [54.46664104437454]
一段核融合を用いた効率的かつ正確なレーダ・カメラ深度推定モデルであるTacoDepthを提案する。
具体的には、グラフベースのRadar構造抽出器とピラミッドベースのRadar融合モジュールを設計する。
従来の最先端のアプローチと比較して、TacoDepthは深さ精度と処理速度を12.8%、91.8%改善している。
論文 参考訳(メタデータ) (2025-04-16T05:25:04Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - Enhanced 3D Object Detection via Diverse Feature Representations of 4D Radar Tensor [5.038148262901536]
Raw 4D Radar (4DRT) は従来の点雲よりも豊かな空間情報とドップラー情報を提供する。
効率を保ちつつ、4DRTの有用性を最大化する新しい3Dオブジェクト検出フレームワークを提案する。
本稿では, RTNHモデルよりもAP_3Dが7.3%, AP_BEVが9.5%向上したことを示す。
論文 参考訳(メタデータ) (2025-02-10T02:48:56Z) - V2X-R: Cooperative LiDAR-4D Radar Fusion with Denoising Diffusion for 3D Object Detection [64.93675471780209]
我々は、LiDAR、カメラ、および4Dレーダを取り入れた初のシミュレーションV2XデータセットであるV2X-Rを提案する。
V2X-Rには12,079のシナリオがあり、LiDARと4Dレーダーポイント雲の37,727フレーム、150,908の画像、170,859の注釈付き3D車両バウンディングボックスがある。
本稿では,3次元物体検出のための新しいコラボレーティブLiDAR-4Dレーダ融合パイプラインを提案し,様々な融合戦略を用いて実装する。
論文 参考訳(メタデータ) (2024-11-13T07:41:47Z) - RadarOcc: Robust 3D Occupancy Prediction with 4D Imaging Radar [15.776076554141687]
3D占有に基づく知覚パイプラインは、かなり進歩した自律運転を持つ。
現在の方法では、LiDARやカメラの入力を3D占有率予測に頼っている。
本稿では,4次元イメージングレーダセンサを用いた3次元占有予測手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T21:48:17Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - K-Radar: 4D Radar Object Detection for Autonomous Driving in Various
Weather Conditions [9.705678194028895]
KAIST-Radarは、新しい大規模オブジェクト検出データセットとベンチマークである。
4次元レーダーテンソル(4DRT)データの35Kフレームを含み、ドップラー、レンジ、方位、標高の寸法に沿って電力の測定を行う。
我々は、慎重に校正された高分解能ライダー、サラウンドステレオカメラ、RTK-GPSから補助的な測定を行う。
論文 参考訳(メタデータ) (2022-06-16T13:39:21Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。