論文の概要: R4Det: 4D Radar-Camera Fusion for High-Performance 3D Object Detection
- arxiv url: http://arxiv.org/abs/2603.11566v1
- Date: Thu, 12 Mar 2026 05:41:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.915921
- Title: R4Det: 4D Radar-Camera Fusion for High-Performance 3D Object Detection
- Title(参考訳): R4Det:高性能3Dオブジェクト検出のための4次元レーダカメラフュージョン
- Authors: Zhongyu Xia, Yousen Tang, Yongtao Wang, Zhifeng Wang, Weijun Qin,
- Abstract要約: 4Dレーダとカメラデータを融合する3Dオブジェクト検出法はいくつかの課題に直面している。
パノラマ深度融合モジュールによる深度推定品質を向上させるR4Detを提案する。
実験によると、R4DetはTJ4DRadSetおよびVoDデータセット上で最先端の3Dオブジェクト検出結果を達成する。
- 参考スコア(独自算出の注目度): 12.09303986935892
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: 4D radar-camera sensing configuration has gained increasing importance in autonomous driving. However, existing 3D object detection methods that fuse 4D Radar and camera data confront several challenges. First, their absolute depth estimation module is not robust and accurate enough, leading to inaccurate 3D localization. Second, the performance of their temporal fusion module will degrade dramatically or even fail when the ego vehicle's pose is missing or inaccurate. Third, for some small objects, the sparse radar point clouds may completely fail to reflect from their surfaces. In such cases, detection must rely solely on visual unimodal priors. To address these limitations, we propose R4Det, which enhances depth estimation quality via the Panoramic Depth Fusion module, enabling mutual reinforcement between absolute and relative depth. For temporal fusion, we design a Deformable Gated Temporal Fusion module that does not rely on the ego vehicle's pose. In addition, we built an Instance-Guided Dynamic Refinement module that extracts semantic prototypes from 2D instance guidance. Experiments show that R4Det achieves state-of-the-art 3D object detection results on the TJ4DRadSet and VoD datasets.
- Abstract(参考訳): 4Dレーダーカメラのセンサー構成は、自動運転においてますます重要になっている。
しかし、4Dレーダとカメラデータを融合する既存の3Dオブジェクト検出手法は、いくつかの課題に直面している。
第一に、その絶対深度推定モジュールは頑丈で正確ではなく、不正確な3Dローカライゼーションをもたらす。
第二に、彼らの時間融合モジュールの性能は劇的に低下するか、エゴ車両のポーズが欠けたり不正確な場合には失敗する。
第三に、いくつかの小さな天体では、まばらなレーダーポイントの雲は表面から完全に反射できない可能性がある。
このような場合、検出は視覚的一過性の先行にのみ依存しなければならない。
これらの制約に対処するため, 絶対深度と相対深度との相互強化を可能にするパノラマ深度融合モジュールによる深度推定品質を向上させるR4Detを提案する。
時空融合のために,エゴ車両の姿勢に依存しない変形可能なGated Temporal Fusionモジュールを設計する。
さらに、2Dインスタンスガイダンスからセマンティックプロトタイプを抽出するインスタンスガイド動的リファインメントモジュールを構築しました。
実験によると、R4DetはTJ4DRadSetおよびVoDデータセット上で最先端の3Dオブジェクト検出結果を達成する。
関連論文リスト
- SDCM: Simulated Densifying and Compensatory Modeling Fusion for Radar-Vision 3-D Object Detection in Internet of Vehicles [3.0945968470179754]
IoVにおけるレーダビジョン3次元物体検出のためのSimulated Densifying and Compensatory Modeling Fusionを含むSDCMというフレームワークを提案する。
VoD、TJ4DRadSet、Astyx HiRes 2019データセットの実験結果によると、SDCMはパラメータの量が少なく、推論速度が速く、最高のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2026-01-29T12:52:16Z) - MLF-4DRCNet: Multi-Level Fusion with 4D Radar and Camera for 3D Object Detection in Autonomous Driving [31.26862558777292]
MLF-4DRCNetは4次元レーダとカメラ画像の多層融合による3次元物体検出のための新しいフレームワークである。
ポイントレベル、シーンレベル、プロポーザルレベルのマルチモーダル情報を組み込んで、包括的な特徴表現を可能にする。
これは、View-of-Delftデータセット上のLiDARベースのモデルに匹敵するパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-09-23T04:02:28Z) - ZFusion: An Effective Fuser of Camera and 4D Radar for 3D Object Perception in Autonomous Driving [7.037019489455008]
本研究では、4次元レーダと視覚のモダリティを融合した3次元物体検出手法ZFusionを提案する。
FP-DDCAフェイザーはTransformerブロックをパックし、異なるスケールのマルチモーダル機能をインタラクティブに融合する。
実験の結果、ZFusionは興味のある領域で最先端のmAPを達成した。
論文 参考訳(メタデータ) (2025-04-04T13:29:32Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - V2X-R: Cooperative LiDAR-4D Radar Fusion with Denoising Diffusion for 3D Object Detection [64.93675471780209]
我々は、LiDAR、カメラ、および4Dレーダを取り入れた初のシミュレーションV2XデータセットであるV2X-Rを提案する。
V2X-Rには12,079のシナリオがあり、LiDARと4Dレーダーポイント雲の37,727フレーム、150,908の画像、170,859の注釈付き3D車両バウンディングボックスがある。
本稿では,3次元物体検出のための新しいコラボレーティブLiDAR-4Dレーダ融合パイプラインを提案し,様々な融合戦略を用いて実装する。
論文 参考訳(メタデータ) (2024-11-13T07:41:47Z) - 4DRVO-Net: Deep 4D Radar-Visual Odometry Using Multi-Modal and
Multi-Scale Adaptive Fusion [2.911052912709637]
4次元(4D)レーダー-視覚計測(4DRVO)は4次元レーダーとカメラの補完情報を統合している。
4DRVOは4Dレーダーポイント雲の空隙による追跡誤差が顕著である可能性がある。
本稿では,4次元レーダ・ビジュアル・オドメトリーの手法である4DRVO-Netを提案する。
論文 参考訳(メタデータ) (2023-08-12T14:00:09Z) - DetZero: Rethinking Offboard 3D Object Detection with Long-term
Sequential Point Clouds [55.755450273390004]
既存のオフボード3D検出器は、無限の逐次点雲を利用するために常にモジュラーパイプライン設計に従っている。
その結果, 物体の運動状態は, 物体中心の精製段階において必然的な課題となること, 物体の運動状態は, 物体軌道を十分に生成できないこと, 物体中心の精製段階において必然的な課題となること, の2つの理由から, オフボード型3D検出器の完全なポテンシャルは明らかにされていないことがわかった。
これらの問題に対処するために,DetZero という,オフボード型3次元物体検出の新たなパラダイムを提案する。
論文 参考訳(メタデータ) (2023-06-09T16:42:00Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - M3DSSD: Monocular 3D Single Stage Object Detector [82.25793227026443]
特徴アライメントと非対称非局所的注意を有するモノクロ3次元単段物体検出器(M3DSSD)を提案する。
提案したM3DSSDは,KITTIデータセット上のモノラルな3Dオブジェクト検出手法よりも大幅に性能が向上する。
論文 参考訳(メタデータ) (2021-03-24T13:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。