論文の概要: CRAB: Camera-Radar Fusion for Reducing Depth Ambiguity in Backward Projection based View Transformation
- arxiv url: http://arxiv.org/abs/2509.05785v1
- Date: Sat, 06 Sep 2025 17:39:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.713137
- Title: CRAB: Camera-Radar Fusion for Reducing Depth Ambiguity in Backward Projection based View Transformation
- Title(参考訳): CRAB:後方投影型ビュートランスフォーメーションにおける奥行きの曖昧さ低減のためのカメラレーダフュージョン
- Authors: In-Jae Lee, Sihwan Hwang, Youngseok Kim, Wonjune Kim, Sanmin Kim, Dongsuk Kum,
- Abstract要約: カメラレーダ融合に基づく3次元物体検出・分割モデルCRABを提案する。
CRABはビュービューイメージコンテキスト機能をBEVクエリに集約する。
画像からの密度は高いが信頼性の低い深度分布と、レーダーの占有度の少ない正確な深度情報を組み合わせることで、同じ線に沿ったクエリ間の深度差を改善する。
- 参考スコア(独自算出の注目度): 19.748485957698907
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, camera-radar fusion-based 3D object detection methods in bird's eye view (BEV) have gained attention due to the complementary characteristics and cost-effectiveness of these sensors. Previous approaches using forward projection struggle with sparse BEV feature generation, while those employing backward projection overlook depth ambiguity, leading to false positives. In this paper, to address the aforementioned limitations, we propose a novel camera-radar fusion-based 3D object detection and segmentation model named CRAB (Camera-Radar fusion for reducing depth Ambiguity in Backward projection-based view transformation), using a backward projection that leverages radar to mitigate depth ambiguity. During the view transformation, CRAB aggregates perspective view image context features into BEV queries. It improves depth distinction among queries along the same ray by combining the dense but unreliable depth distribution from images with the sparse yet precise depth information from radar occupancy. We further introduce spatial cross-attention with a feature map containing radar context information to enhance the comprehension of the 3D scene. When evaluated on the nuScenes open dataset, our proposed approach achieves a state-of-the-art performance among backward projection-based camera-radar fusion methods with 62.4\% NDS and 54.0\% mAP in 3D object detection.
- Abstract(参考訳): 近年,鳥眼ビュー(BEV)におけるカメラレーダ融合による3次元物体検出法が,これらのセンサの相補的特性と費用対効果から注目されている。
フォワードプロジェクションを用いた従来のアプローチでは, 低いBEV特徴生成が困難であったが, 後方プロジェクションを用いた場合, 奥行きの曖昧さが指摘され, 偽陽性となった。
本稿では,この制約に対処するため,カメラ・レーダー融合による3次元物体検出・セグメンテーションモデル CRAB (Camera-Radar fusion for reduce depth Ambiguity in backward projection-based view transformation) を提案する。
ビュー変換の間、CRABはビュービューイメージコンテキストの機能をBEVクエリに集約する。
画像からの密度は高いが信頼性の低い深度分布と、レーダーの占有度の少ない正確な深度情報を組み合わせることで、同じ線に沿ったクエリ間の深度差を改善する。
さらに,3Dシーンの理解を深めるために,レーダコンテキスト情報を含む特徴マップを用いた空間的クロスアテンションを導入する。
提案手法は,3次元物体検出において62.4\% NDSと54.0\% mAPの後方投影型カメラレーダ融合法において,最先端の性能を実現する。
関連論文リスト
- RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - RaCFormer: Towards High-Quality 3D Object Detection via Query-based Radar-Camera Fusion [58.77329237533034]
本稿では3次元物体検出の精度を高めるために,Raar-Camera fusion transformer (RaCFormer)を提案する。
RaCFormerは、nuScenesデータセット上で64.9% mAPと70.2%の優れた結果を得る。
論文 参考訳(メタデータ) (2024-12-17T09:47:48Z) - LXL: LiDAR Excluded Lean 3D Object Detection with 4D Imaging Radar and
Camera Fusion [14.520176332262725]
本稿では,カメラ上の「サンプリング」ビュー変換戦略と4次元イメージングレーダ融合による3次元物体検出について検討する。
画像深度とレーダ情報を導入して「サンプリング」戦略を強化することにより、より正確なビュー変換を行うことができることを示す。
VoD と TJ4DRadSet データセットの実験により,提案手法はベルやホイッスルを使わずに,最先端の3Dオブジェクト検出手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-07-03T03:09:44Z) - EA-LSS: Edge-aware Lift-splat-shot Framework for 3D BEV Object Detection [9.289537252177048]
本稿では,3次元物体検出のための新しいエッジ対応Lift-splat-shot (EA-LSS) フレームワークを提案する。
我々のEA-LSSフレームワークは、任意のLSSベースの3Dオブジェクト検出モデルと互換性がある。
論文 参考訳(メタデータ) (2023-03-31T08:56:29Z) - OA-DET3D: Embedding Object Awareness as a General Plug-in for Multi-Camera 3D Object Detection [77.43427778037203]
我々は3Dオブジェクト検出を改善するプラグインモジュールであるOA-DET3Dを紹介する。
OA-DET3Dは、オブジェクト中心の深度情報と前景の擬似点を活用することにより、オブジェクトの表現を高める。
我々は、OA-DET3Dの有効性を検証するために、nuScenesデータセットとArgoverse 2データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-01-13T06:02:31Z) - OPA-3D: Occlusion-Aware Pixel-Wise Aggregation for Monocular 3D Object
Detection [51.153003057515754]
OPA-3Dは、Occlusion-Aware Pixel-Wise Aggregationネットワークである。
密集した風景深度と、奥行きのある箱残量と物の境界箱を共同で推定する。
メインカーのカテゴリーでは最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-11-02T14:19:13Z) - BEVDepth: Acquisition of Reliable Depth for Multi-view 3D Object
Detection [13.319949358652192]
我々は,カメラを用いたBird-Eye-View 3Dオブジェクト検出のための,BEVDepthと呼ばれる信頼性の高い深度推定が可能な新しい3Dオブジェクト検出器を提案する。
BEVDepthは、挑戦的なnuScenesテストセット上で、最先端の60.0% NDSを達成する。
論文 参考訳(メタデータ) (2022-06-21T03:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。