論文の概要: RadarXFormer: Robust Object Detection via Cross-Dimension Fusion of 4D Radar Spectra and Images for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2603.14822v1
- Date: Mon, 16 Mar 2026 04:56:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:36.055687
- Title: RadarXFormer: Robust Object Detection via Cross-Dimension Fusion of 4D Radar Spectra and Images for Autonomous Driving
- Title(参考訳): RadarXFormer: 4次元レーダースペクトルと画像のクロス次元融合によるロバスト物体検出
- Authors: Yue Sun, Yeqiang Qian, Zhe Wang, Tianhui Li, Chunxiang Wang, Ming Yang,
- Abstract要約: カメラとLiDARに基づく認識システムは、悪天候や照明条件下での性能劣化に悩まされる。
レーダビジョン融合は、ミリ波レーダの環境ロバスト性とコスト効率と、カメラが捉えたリッチなセマンティック情報を組み合わせることで、有望な代替手段を提供する。
本稿では、4DレーダスペクトルとRGB画像の効率的な相互融合を可能にする3Dオブジェクト検出フレームワークであるRadarXFormerを提案する。
- 参考スコア(独自算出の注目度): 28.09294325639777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reliable perception is essential for autonomous driving systems to operate safely under diverse real-world traffic conditions. However, camera- and LiDAR-based perception systems suffer from performance degradation under adverse weather and lighting conditions, limiting their robustness and large-scale deployment in intelligent transportation systems. Radar-vision fusion provides a promising alternative by combining the environmental robustness and cost efficiency of millimeter-wave (mmWave) radar with the rich semantic information captured by cameras. Nevertheless, conventional 3D radar measurements lack height resolution and remain highly sparse, while emerging 4D mmWave radar introduces elevation information but also brings challenges such as signal noise and large data volume. To address these issues, this paper proposes RadarXFormer, a 3D object detection framework that enables efficient cross-modal fusion between 4D radar spectra and RGB images. Instead of relying on sparse radar point clouds, RadarXFormer directly leverages raw radar spectra and constructs an efficient 3D representation that reduces data volume while preserving complete 3D spatial information. The "X" highlights the proposed cross-dimension (3D-2D) fusion mechanism, in which multi-scale 3D spherical radar feature cubes are fused with complementary 2D image feature maps. Experiments on the K-Radar dataset demonstrate improved detection accuracy and robustness under challenging conditions while maintaining real-time inference capability.
- Abstract(参考訳): 自律運転システムにとって、様々な現実世界の交通条件下で安全に運転するには、信頼性の高い認識が不可欠である。
しかし、カメラとLiDARに基づく認識システムは、悪天候や照明条件下での性能劣化に悩まされ、その堅牢性とインテリジェント輸送システムへの大規模展開が制限される。
レーダビジョン融合は、ミリ波レーダの環境ロバスト性とコスト効率と、カメラが捉えたリッチなセマンティック情報を組み合わせることで、有望な代替手段を提供する。
それにもかかわらず、従来の3Dレーダ計測では高分解能が欠如しており、しかも4D mmWaveレーダは高度情報を導入しているが、信号ノイズや大きなデータボリュームといった課題も生じている。
これらの問題に対処するために,RarXFormerを提案する。RarXFormerは,4次元レーダスペクトルとRGB画像との効率的な相互融合を実現する3次元オブジェクト検出フレームワークである。
RadarXFormerは、粗いレーダーポイントの雲に頼る代わりに、生のレーダースペクトルを直接利用し、完全な3D空間情報を保存しながらデータ量を削減する効率的な3D表現を構築する。
X」は、複数次元の球面レーダー特徴立方体を補完的な2次元画像特徴写像で融合させる3D-2D融合機構を提案する。
K-Radarデータセットの実験では、リアルタイム推論能力を維持しながら、困難な条件下での検出精度と堅牢性を改善した。
関連論文リスト
- Wavelet-based Multi-View Fusion of 4D Radar Tensor and Camera for Robust 3D Object Detection [44.78575994732947]
WRCFormerは、デカップリングされたレーダーキューブのマルチビュー表現を介して、生のレーダーキューブとカメラ入力を融合する新しい3Dオブジェクト検出フレームワークである。
WRCFormerはK-Radarベンチマークで最先端のパフォーマンスを達成し、すべてのシナリオで最高のモデルを約2.4%上回っている。
論文 参考訳(メタデータ) (2025-12-28T15:32:17Z) - RadarGen: Automotive Radar Point Cloud Generation from Cameras [64.69976771710057]
マルチビューカメラ画像からリアルな自動車用レーダー点雲を合成するための拡散モデルRadarGenを提案する。
RadarGenは、鳥の目視でレーダー計測を表現することで、レーダ領域への効率的な画像遅延拡散を適応する。
本稿では,RadarGenが特徴的レーダ計測分布を捕捉し,実データに基づいて学習した知覚モデルとのギャップを小さくすることを示す。
論文 参考訳(メタデータ) (2025-12-19T18:57:33Z) - Depth-aware Fusion Method based on Image and 4D Radar Spectrum for 3D Object Detection [32.96725310200148]
3Dミリ波レーダーは、対象物に対して範囲、ドップラー、方位情報しか提供できない。
本稿では,これら2つの高相補的で費用効率のよいセンサ,4Dミリ波レーダ,カメラを活用する。
深度センサがない場合のレーダスペクトルから深度画像を生成するために,GANを用いたネットワークを提案する。
論文 参考訳(メタデータ) (2025-02-21T15:14:30Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - V2X-R: Cooperative LiDAR-4D Radar Fusion with Denoising Diffusion for 3D Object Detection [64.93675471780209]
我々は、LiDAR、カメラ、および4Dレーダを取り入れた初のシミュレーションV2XデータセットであるV2X-Rを提案する。
V2X-Rには12,079のシナリオがあり、LiDARと4Dレーダーポイント雲の37,727フレーム、150,908の画像、170,859の注釈付き3D車両バウンディングボックスがある。
本稿では,3次元物体検出のための新しいコラボレーティブLiDAR-4Dレーダ融合パイプラインを提案し,様々な融合戦略を用いて実装する。
論文 参考訳(メタデータ) (2024-11-13T07:41:47Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - SMURF: Spatial Multi-Representation Fusion for 3D Object Detection with
4D Imaging Radar [12.842457981088378]
本稿では,単一4次元イメージングレーダを用いた新しい3次元物体検出手法である空間多重表現融合(SMURF)を提案する。
SMURFは、狭角分解能とレーダ信号のマルチパス伝搬による測定精度の低下を緩和する。
The experimental evaluations on View-of-Delft (VoD) and TJ4DRadSet datasets showed the effective and generalization ability of SMURF。
論文 参考訳(メタデータ) (2023-07-20T11:33:46Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。