論文の概要: SDCM: Simulated Densifying and Compensatory Modeling Fusion for Radar-Vision 3-D Object Detection in Internet of Vehicles
- arxiv url: http://arxiv.org/abs/2602.00149v1
- Date: Thu, 29 Jan 2026 12:52:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:32.977641
- Title: SDCM: Simulated Densifying and Compensatory Modeling Fusion for Radar-Vision 3-D Object Detection in Internet of Vehicles
- Title(参考訳): SDCM:自動車インターネットにおけるレーダビジョン3次元物体検出のための模擬密度化・補償モデリングフュージョン
- Authors: Shucong Li, Xiaoluo Zhou, Yuqian He, Zhenyu Liu,
- Abstract要約: IoVにおけるレーダビジョン3次元物体検出のためのSimulated Densifying and Compensatory Modeling Fusionを含むSDCMというフレームワークを提案する。
VoD、TJ4DRadSet、Astyx HiRes 2019データセットの実験結果によると、SDCMはパラメータの量が少なく、推論速度が速く、最高のパフォーマンスを達成している。
- 参考スコア(独自算出の注目度): 3.0945968470179754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3-D object detection based on 4-D radar-vision is an important part in Internet of Vehicles (IoV). However, there are two challenges which need to be faced. First, the 4-D radar point clouds are sparse, leading to poor 3-D representation. Second, vision datas exhibit representation degradation under low-light, long distance detection and dense occlusion scenes, which provides unreliable texture information during fusion stage. To address these issues, a framework named SDCM is proposed, which contains Simulated Densifying and Compensatory Modeling Fusion for radar-vision 3-D object detection in IoV. Firstly, considering point generation based on Gaussian simulation of key points obtained from 3-D Kernel Density Estimation (3-D KDE), and outline generation based on curvature simulation, Simulated Densifying (SimDen) module is designed to generate dense radar point clouds. Secondly, considering that radar data could provide more real time information than vision data, due to the all-weather property of 4-D radar. Radar Compensatory Mapping (RCM) module is designed to reduce the affects of vision datas' representation degradation. Thirdly, considering that feature tensor difference values contain the effective information of every modality, which could be extracted and modeled for heterogeneity reduction and modalities interaction, Mamba Modeling Interactive Fusion (MMIF) module is designed for reducing heterogeneous and achieving interactive Fusion. Experiment results on the VoD, TJ4DRadSet and Astyx HiRes 2019 dataset show that SDCM achieves best performance with lower parameter quantity and faster inference speed. Our code will be available.
- Abstract(参考訳): 4次元レーダービジョンに基づく3次元物体検出は、Internet of Vehicles(IoV)の重要な部分である。
しかし、直面するべき課題は2つある。
第一に、4次元レーダーポイントの雲は希薄であり、3次元の表現に乏しい。
第二に、視覚データは低照度、長距離検出、密閉シーン下での表現劣化を示し、融合段階における信頼性の低いテクスチャ情報を提供する。
これらの問題に対処するため、IoVにおけるレーダビジョン3次元物体検出のためのSimulated Densifying and Compensatory Modeling Fusionを含むSDCMというフレームワークが提案されている。
まず,3次元カーネル密度推定(3-D KDE)から得られる鍵点のガウスシミュレーションに基づく点生成と曲率シミュレーションに基づく輪郭生成を考慮し,高密度レーダ点雲を生成するためにシミュレートデンシファイリング(SimDen)モジュールを設計した。
第二に、レーダーデータを考えると、4次元レーダーのオールウェザー特性のため、視覚データよりもリアルタイムな情報を提供できる。
Radar Compensatory Mapping (RCM)モジュールは、視覚データの表現劣化の影響を低減するために設計されている。
第3に、特徴量テンソル差分値は、不均一性低減とモダリティ相互作用のための抽出およびモデル化が可能な全てのモダリティの有効情報を含んでいることを考慮し、不均一性を低減し、対話的融合を実現するためのMamba Modeling Interactive Fusion (MMIF)モジュールを設計する。
VoD、TJ4DRadSet、Astyx HiRes 2019データセットの実験結果によると、SDCMはパラメータの量が少なく、推論速度が速く、最高のパフォーマンスを達成している。
私たちのコードは利用可能です。
関連論文リスト
- RadarGen: Automotive Radar Point Cloud Generation from Cameras [64.69976771710057]
マルチビューカメラ画像からリアルな自動車用レーダー点雲を合成するための拡散モデルRadarGenを提案する。
RadarGenは、鳥の目視でレーダー計測を表現することで、レーダ領域への効率的な画像遅延拡散を適応する。
本稿では,RadarGenが特徴的レーダ計測分布を捕捉し,実データに基づいて学習した知覚モデルとのギャップを小さくすることを示す。
論文 参考訳(メタデータ) (2025-12-19T18:57:33Z) - MLF-4DRCNet: Multi-Level Fusion with 4D Radar and Camera for 3D Object Detection in Autonomous Driving [31.26862558777292]
MLF-4DRCNetは4次元レーダとカメラ画像の多層融合による3次元物体検出のための新しいフレームワークである。
ポイントレベル、シーンレベル、プロポーザルレベルのマルチモーダル情報を組み込んで、包括的な特徴表現を可能にする。
これは、View-of-Delftデータセット上のLiDARベースのモデルに匹敵するパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-09-23T04:02:28Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - V2X-R: Cooperative LiDAR-4D Radar Fusion with Denoising Diffusion for 3D Object Detection [64.93675471780209]
我々は、LiDAR、カメラ、および4Dレーダを取り入れた初のシミュレーションV2XデータセットであるV2X-Rを提案する。
V2X-Rには12,079のシナリオがあり、LiDARと4Dレーダーポイント雲の37,727フレーム、150,908の画像、170,859の注釈付き3D車両バウンディングボックスがある。
本稿では,3次元物体検出のための新しいコラボレーティブLiDAR-4Dレーダ融合パイプラインを提案し,様々な融合戦略を用いて実装する。
論文 参考訳(メタデータ) (2024-11-13T07:41:47Z) - UniBEVFusion: Unified Radar-Vision BEVFusion for 3D Object Detection [2.123197540438989]
多くのレーダービジョン融合モデルではレーダーを希薄なLiDARとして扱い、レーダー固有の情報を過小評価している。
本稿では,レーダー固有データを深度予測プロセスに統合したRDLモジュールを提案する。
また、異なるモードでBEV機能を抽出するUnified Feature Fusion (UFF)アプローチも導入する。
論文 参考訳(メタデータ) (2024-09-23T06:57:27Z) - VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。