論文の概要: RICCARDO: Radar Hit Prediction and Convolution for Camera-Radar 3D Object Detection
- arxiv url: http://arxiv.org/abs/2504.09086v1
- Date: Sat, 12 Apr 2025 05:37:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:52:25.053932
- Title: RICCARDO: Radar Hit Prediction and Convolution for Camera-Radar 3D Object Detection
- Title(参考訳): RICCARDO:カメラレーダー3次元物体検出のためのレーダヒット予測と畳み込み
- Authors: Yunfei Long, Abhinav Kumar, Xiaoming Liu, Daniel Morris,
- Abstract要約: 我々は,単分子検出器から得られた物体特性に基づいて,レーダの衝突分布を予測するモデルを構築した。
我々は,予測分布をカーネルとして,単分子検出近傍の実際のレーダ点と一致させる。
提案手法は, nuScenes 上での最先端レーダーカメラ検出性能を実現する。
- 参考スコア(独自算出の注目度): 16.872776956141195
- License:
- Abstract: Radar hits reflect from points on both the boundary and internal to object outlines. This results in a complex distribution of radar hits that depends on factors including object category, size, and orientation. Current radar-camera fusion methods implicitly account for this with a black-box neural network. In this paper, we explicitly utilize a radar hit distribution model to assist fusion. First, we build a model to predict radar hit distributions conditioned on object properties obtained from a monocular detector. Second, we use the predicted distribution as a kernel to match actual measured radar points in the neighborhood of the monocular detections, generating matching scores at nearby positions. Finally, a fusion stage combines context with the kernel detector to refine the matching scores. Our method achieves the state-of-the-art radar-camera detection performance on nuScenes. Our source code is available at https://github.com/longyunf/riccardo.
- Abstract(参考訳): レーダーのヒットは、境界線と内部からオブジェクトの輪郭の両方の点から反射する。
これにより、オブジェクトのカテゴリ、サイズ、方向などの要因に依存するレーダーヒットの複雑な分布が得られる。
現在のレーダー・カメラ融合法は暗黙的にブラックボックスニューラルネットワークでこれを説明している。
本稿では,レーダヒット分布モデルを用いて核融合支援を行う。
まず,単分子検出器から得られた物体特性に基づくレーダ衝突分布の予測モデルを構築した。
第2に, 予測分布をカーネルとして, 単分子検出近傍における実測レーダ点と一致させ, 近傍位置での一致点を生成する。
最後に、融合段階は、コンテキストとカーネル検出器を結合してマッチングスコアを洗練させる。
提案手法は, nuScenes 上での最先端レーダーカメラ検出性能を実現する。
ソースコードはhttps://github.com/longyunf/riccardo.comで公開されています。
関連論文リスト
- RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - RCM-Fusion: Radar-Camera Multi-Level Fusion for 3D Object Detection [15.686167262542297]
本稿では,機能レベルとインスタンスレベルの両モードを融合するRadar-Camera Multi-level fusion (RCM-Fusion)を提案する。
特徴レベルの融合のために,カメラ特徴を正確なBEV表現に変換するRadar Guided BEVを提案する。
実例レベルでの融合では,ローカライズエラーを低減するRadar Grid Point Refinementモジュールを提案する。
論文 参考訳(メタデータ) (2023-07-17T07:22:25Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - MVFusion: Multi-View 3D Object Detection with Semantic-aligned Radar and
Camera Fusion [6.639648061168067]
マルチビューレーダーカメラで融合した3Dオブジェクト検出は、より遠くの検知範囲と自律運転に有用な機能を提供する。
現在のレーダーとカメラの融合方式は、レーダー情報をカメラデータで融合するための種類の設計を提供する。
セマンティック・アライメント・レーダ機能を実現するための新しいマルチビューレーダカメラフュージョン法であるMVFusionを提案する。
論文 参考訳(メタデータ) (2023-02-21T08:25:50Z) - RADDet: Range-Azimuth-Doppler based Radar Object Detection for Dynamic
Road Users [6.61211659120882]
レーダデータを含む新しいレーダデータセットをRange-Azimuth-Dopplerテンソルとして収集する。
データセットを構築するために,インスタンスワイズ自動アノテーション手法を提案する。
Range-Azimuth-Dopplerベースのマルチクラスオブジェクト検出ディープラーニングモデルを提案する。
論文 参考訳(メタデータ) (2021-05-02T00:25:11Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - Depth Estimation from Monocular Images and Sparse Radar Data [93.70524512061318]
本稿では,ディープニューラルネットワークを用いた単眼画像とレーダ点の融合により,より正確な深度推定を実現する可能性を検討する。
レーダ測定で発生するノイズが,既存の融合法の適用を妨げている主要な理由の1つであることが判明した。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
論文 参考訳(メタデータ) (2020-09-30T19:01:33Z) - Radar-Camera Sensor Fusion for Joint Object Detection and Distance
Estimation in Autonomous Vehicles [8.797434238081372]
本稿では,自律走行シナリオにおける物体検出と距離推定のための新しいレーダーカメラセンサ融合フレームワークを提案する。
提案アーキテクチャでは,レーダーポイント雲とRGB画像の融合に中間融合方式を用いる。
難易度の高いnuScenesデータセットの実験では、我々の手法は2次元物体検出タスクにおいて既存のレーダー・カメラ融合法よりも優れていた。
論文 参考訳(メタデータ) (2020-09-17T17:23:40Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。