論文の概要: Instance-Guided Radar Depth Estimation for 3D Object Detection
- arxiv url: http://arxiv.org/abs/2601.19314v1
- Date: Tue, 27 Jan 2026 07:53:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.235172
- Title: Instance-Guided Radar Depth Estimation for 3D Object Detection
- Title(参考訳): 3次元物体検出のためのインスタンス誘導レーダ深さ推定
- Authors: Chen-Chou Lo, Patrick Vandewalle,
- Abstract要約: 単眼カメラによる3D検出は、困難条件下での深度あいまいさと頑健さの低下に悩まされる。
Radarは、低照度や悪天候に対するレジリエンスのような補完的な利点を提供するが、その幅と低解像度は検出フレームワークでの使用を制限している。
本稿では,2つのキーコンポーネントによるモノラルな3Dオブジェクト検出を実現するエンド・ツー・エンドのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 8.14859005096058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate depth estimation is fundamental to 3D perception in autonomous driving, supporting tasks such as detection, tracking, and motion planning. However, monocular camera-based 3D detection suffers from depth ambiguity and reduced robustness under challenging conditions. Radar provides complementary advantages such as resilience to poor lighting and adverse weather, but its sparsity and low resolution limit its direct use in detection frameworks. This motivates the need for effective Radar-camera fusion with improved preprocessing and depth estimation strategies. We propose an end-to-end framework that enhances monocular 3D object detection through two key components. First, we introduce InstaRadar, an instance segmentation-guided expansion method that leverages pre-trained segmentation masks to enhance Radar density and semantic alignment, producing a more structured representation. InstaRadar achieves state-of-the-art results in Radar-guided depth estimation, showing its effectiveness in generating high-quality depth features. Second, we integrate the pre-trained RCDPT into the BEVDepth framework as a replacement for its depth module. With InstaRadar-enhanced inputs, the RCDPT integration consistently improves 3D detection performance. Overall, these components yield steady gains over the baseline BEVDepth model, demonstrating the effectiveness of InstaRadar and the advantage of explicit depth supervision in 3D object detection. Although the framework lags behind Radar-camera fusion models that directly extract BEV features, since Radar serves only as guidance rather than an independent feature stream, this limitation highlights potential for improvement. Future work will extend InstaRadar to point cloud-like representations and integrate a dedicated Radar branch with temporal cues for enhanced BEV fusion.
- Abstract(参考訳): 正確な深度推定は、自律運転における3次元認識の基本であり、検出、追跡、運動計画などのタスクをサポートする。
しかし、単眼カメラによる3D検出は、困難条件下での深度あいまいさと頑健さの低下に悩まされている。
Radarは、低照度や悪天候に対するレジリエンスのような補完的な利点を提供するが、その幅と低解像度は検出フレームワークでの使用を制限している。
このことは、前処理と深さ推定の戦略を改善した効果的なレーダーカメラ融合の必要性を動機付けている。
本稿では,2つのキーコンポーネントによるモノラルな3Dオブジェクト検出を実現するエンド・ツー・エンドのフレームワークを提案する。
まず、事前訓練されたセグメンテーションマスクを利用して、レーダ密度とセマンティックアライメントを高め、より構造化された表現を生成するインスタンスセグメンテーション誘導拡張手法InstaRadarを紹介する。
InstaRadarは、レーダ誘導深度推定の最先端結果を実現し、高品質の深度特徴の生成に有効であることを示す。
次に,事前学習したRCDPTを,深度モジュールの代替として,BEVDepthフレームワークに統合する。
InstaRadarで強化された入力により、RCDPT統合は一貫して3D検出性能を改善している。
全体として、これらのコンポーネントはベースラインのBEVDepthモデルよりも着実に向上し、InstaRadarの有効性と3Dオブジェクト検出における明示的な深度監視の利点を示す。
Radarは独立した機能ストリームではなくガイダンスとしてのみ機能するため、この制限は改善の可能性を浮き彫りにしている。
今後の作業では、InstaRadarをクラウドライクな表現に拡張し、専用のRadarブランチと時間的キューを統合して、BEVの融合を強化する予定である。
関連論文リスト
- RadarGen: Automotive Radar Point Cloud Generation from Cameras [64.69976771710057]
マルチビューカメラ画像からリアルな自動車用レーダー点雲を合成するための拡散モデルRadarGenを提案する。
RadarGenは、鳥の目視でレーダー計測を表現することで、レーダ領域への効率的な画像遅延拡散を適応する。
本稿では,RadarGenが特徴的レーダ計測分布を捕捉し,実データに基づいて学習した知覚モデルとのギャップを小さくすることを示す。
論文 参考訳(メタデータ) (2025-12-19T18:57:33Z) - Revisiting Radar Camera Alignment by Contrastive Learning for 3D Object Detection [31.69508809666884]
レーダとカメラ融合に基づく3次元物体検出アルゴリズムは優れた性能を示した。
レーダカメラアライメント(RCAlign)と呼ばれる新しいアライメントモデルを提案する。
具体的には、対向学習に基づくデュアルルートアライメント(DRA)モジュールを設計し、レーダとカメラの機能の整合と融合を図る。
レーダBEV特性の空間性を考慮すると,レーダBEV特性の密度化を改善するためにRFEモジュールが提案されている。
論文 参考訳(メタデータ) (2025-04-23T02:41:43Z) - TacoDepth: Towards Efficient Radar-Camera Depth Estimation with One-stage Fusion [54.46664104437454]
一段核融合を用いた効率的かつ正確なレーダ・カメラ深度推定モデルであるTacoDepthを提案する。
具体的には、グラフベースのRadar構造抽出器とピラミッドベースのRadar融合モジュールを設計する。
従来の最先端のアプローチと比較して、TacoDepthは深さ精度と処理速度を12.8%、91.8%改善している。
論文 参考訳(メタデータ) (2025-04-16T05:25:04Z) - RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - RaCFormer: Towards High-Quality 3D Object Detection via Query-based Radar-Camera Fusion [58.77329237533034]
本稿では3次元物体検出の精度を高めるために,Raar-Camera fusion transformer (RaCFormer)を提案する。
RaCFormerは、nuScenesデータセット上で64.9% mAPと70.2%の優れた結果を得る。
論文 参考訳(メタデータ) (2024-12-17T09:47:48Z) - RCBEVDet++: Toward High-accuracy Radar-Camera Fusion 3D Perception Network [34.45694077040797]
本稿では、BEEVDetと呼ばれるレーダーカメラ融合3Dオブジェクト検出フレームワークを提案する。
RadarBEVNetは、スパースレーダーポイントを高密度の鳥の目視特徴に符号化する。
提案手法は,3次元オブジェクト検出,BEVセマンティックセグメンテーション,および3次元マルチオブジェクト追跡タスクにおいて,最先端のレーダカメラ融合を実現する。
論文 参考訳(メタデータ) (2024-09-08T05:14:27Z) - GET-UP: GEomeTric-aware Depth Estimation with Radar Points UPsampling [7.90238039959534]
既存のアルゴリズムは3Dポイントを画像面に投影してレーダデータを処理し、画素レベルの特徴抽出を行う。
レーダデータから2次元情報と3次元情報を交換・集約するために,注目度の高いグラフニューラルネットワーク(GNN)を利用するGET-UPを提案する。
提案したGET-UPをnuScenesデータセット上でベンチマークし,従来最高のパフォーマンスモデルよりも15.3%,14.7%改善した。
論文 参考訳(メタデータ) (2024-09-02T14:15:09Z) - CenterRadarNet: Joint 3D Object Detection and Tracking Framework using
4D FMCW Radar [28.640714690346353]
CenterRadarNetは、4D(Doppler-range-azimuth-ele)レーダーデータからの高分解能表現学習を容易にするように設計されている。
シングルステージの3Dオブジェクト検出器として、CenterRadarNetは、BEVオブジェクト分布の信頼性マップ、対応する3Dバウンディングボックス属性、および各ピクセルの外観埋め込みを推論する。
さまざまな駆動シナリオにおいて、CenterRadarNetは一貫性があり、堅牢なパフォーマンスを示し、その広範な適用性を強調している。
論文 参考訳(メタデータ) (2023-11-02T17:36:40Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。