論文の概要: SFGFusion: Surface Fitting Guided 3D Object Detection with 4D Radar and Camera Fusion
- arxiv url: http://arxiv.org/abs/2510.19215v1
- Date: Wed, 22 Oct 2025 03:56:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:15.032303
- Title: SFGFusion: Surface Fitting Guided 3D Object Detection with 4D Radar and Camera Fusion
- Title(参考訳): SFGFusion:4次元レーダとカメラ融合による表面形状ガイド3次元物体検出
- Authors: Xiaozhi Li, Huijun Di, Jian Li, Feng Liu, Wei Liang,
- Abstract要約: 表面実装で誘導される新しいカメラ4Dイメージングレーダ検出ネットワークであるSFGFusionを紹介する。
明示的な表面嵌合モデルにより、空間表現とクロスモーダル相互作用が向上し、より信頼性の高い細粒度深度予測が可能となる。
実験結果から、SFGFusionはカメラと4Dレーダを効果的に融合させ、TJ4DRadSetとVoD(View-of-delft)オブジェクト検出ベンチマークにおいて優れた性能を発揮することが示された。
- 参考スコア(独自算出の注目度): 12.877894178462297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D object detection is essential for autonomous driving. As an emerging sensor, 4D imaging radar offers advantages as low cost, long-range detection, and accurate velocity measurement, making it highly suitable for object detection. However, its sparse point clouds and low resolution limit object geometric representation and hinder multi-modal fusion. In this study, we introduce SFGFusion, a novel camera-4D imaging radar detection network guided by surface fitting. By estimating quadratic surface parameters of objects from image and radar data, the explicit surface fitting model enhances spatial representation and cross-modal interaction, enabling more reliable prediction of fine-grained dense depth. The predicted depth serves two purposes: 1) in an image branch to guide the transformation of image features from perspective view (PV) to a unified bird's-eye view (BEV) for multi-modal fusion, improving spatial mapping accuracy; and 2) in a surface pseudo-point branch to generate dense pseudo-point cloud, mitigating the radar point sparsity. The original radar point cloud is also encoded in a separate radar branch. These two point cloud branches adopt a pillar-based method and subsequently transform the features into the BEV space. Finally, a standard 2D backbone and detection head are used to predict object labels and bounding boxes from BEV features. Experimental results show that SFGFusion effectively fuses camera and 4D radar features, achieving superior performance on the TJ4DRadSet and view-of-delft (VoD) object detection benchmarks.
- Abstract(参考訳): 自動走行には3Dオブジェクト検出が不可欠である。
新たなセンサーとして、4Dイメージングレーダーは低コスト、長距離検出、正確な速度測定などの利点があり、物体検出に非常に適している。
しかし、そのスパース点雲と低解像度のオブジェクト幾何表現は多モード融合を妨げる。
本研究では,表面実装により誘導される新しいカメラ4Dイメージングレーダ検出ネットワークであるSFGFusionを紹介する。
画像およびレーダデータから物体の2次曲面パラメータを推定することにより、明示的な表面フィッティングモデルにより空間表現と相互モーダル相互作用が向上し、より信頼性の高い密度密度の予測が可能となる。
予測深度は2つの目的がある。
1) 画像枝において、画像特徴の視点ビュー(PV)から多モード融合のための統一鳥眼ビュー(BEV)への変換を誘導し、空間マッピング精度を向上させる。
2) 表面擬似点分岐において、密度の高い擬似点雲を生成し、レーダ点間隔を緩和する。
元々のレーダー点雲は別のレーダー分岐に符号化されている。
これら2点のクラウドブランチは柱ベースの手法を採用し、その後特徴をBEV空間に変換する。
最後に、標準の2Dバックボーンと検出ヘッドを使用して、BEV機能からオブジェクトラベルとバウンディングボックスを予測する。
実験結果から、SFGFusionはカメラと4Dレーダを効果的に融合させ、TJ4DRadSetとVoD(View-of-delft)オブジェクト検出ベンチマークにおいて優れた性能を発揮することが示された。
関連論文リスト
- RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - RaCFormer: Towards High-Quality 3D Object Detection via Query-based Radar-Camera Fusion [58.77329237533034]
本稿では3次元物体検出の精度を高めるために,Raar-Camera fusion transformer (RaCFormer)を提案する。
RaCFormerは、nuScenesデータセット上で64.9% mAPと70.2%の優れた結果を得る。
論文 参考訳(メタデータ) (2024-12-17T09:47:48Z) - V2X-R: Cooperative LiDAR-4D Radar Fusion with Denoising Diffusion for 3D Object Detection [64.93675471780209]
我々は、LiDAR、カメラ、および4Dレーダを取り入れた初のシミュレーションV2XデータセットであるV2X-Rを提案する。
V2X-Rには12,079のシナリオがあり、LiDARと4Dレーダーポイント雲の37,727フレーム、150,908の画像、170,859の注釈付き3D車両バウンディングボックスがある。
本稿では,3次元物体検出のための新しいコラボレーティブLiDAR-4Dレーダ融合パイプラインを提案し,様々な融合戦略を用いて実装する。
論文 参考訳(メタデータ) (2024-11-13T07:41:47Z) - VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - 4DRVO-Net: Deep 4D Radar-Visual Odometry Using Multi-Modal and
Multi-Scale Adaptive Fusion [2.911052912709637]
4次元(4D)レーダー-視覚計測(4DRVO)は4次元レーダーとカメラの補完情報を統合している。
4DRVOは4Dレーダーポイント雲の空隙による追跡誤差が顕著である可能性がある。
本稿では,4次元レーダ・ビジュアル・オドメトリーの手法である4DRVO-Netを提案する。
論文 参考訳(メタデータ) (2023-08-12T14:00:09Z) - SMURF: Spatial Multi-Representation Fusion for 3D Object Detection with
4D Imaging Radar [12.842457981088378]
本稿では,単一4次元イメージングレーダを用いた新しい3次元物体検出手法である空間多重表現融合(SMURF)を提案する。
SMURFは、狭角分解能とレーダ信号のマルチパス伝搬による測定精度の低下を緩和する。
The experimental evaluations on View-of-Delft (VoD) and TJ4DRadSet datasets showed the effective and generalization ability of SMURF。
論文 参考訳(メタデータ) (2023-07-20T11:33:46Z) - Bridging the View Disparity of Radar and Camera Features for Multi-modal
Fusion 3D Object Detection [6.959556180268547]
本稿では3次元物体検出にミリ波レーダとカメラセンサ融合を用いる方法について述べる。
より優れた特徴表現のための鳥眼ビュー(BEV)における特徴レベル融合を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-25T13:21:37Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。