論文の概要: RODNet: A Real-Time Radar Object Detection Network Cross-Supervised by
Camera-Radar Fused Object 3D Localization
- arxiv url: http://arxiv.org/abs/2102.05150v1
- Date: Tue, 9 Feb 2021 22:01:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 14:30:09.630783
- Title: RODNet: A Real-Time Radar Object Detection Network Cross-Supervised by
Camera-Radar Fused Object 3D Localization
- Title(参考訳): RODNet: カメラレーダ融合物体3次元位置決めによるリアルタイムレーダ物体検出ネットワーク
- Authors: Yizhou Wang, Zhongyu Jiang, Yudong Li, Jenq-Neng Hwang, Guanbin Xing,
Hui Liu
- Abstract要約: 本稿では,カメラレーダ融合アルゴリズムによって相互に監視される深層レーダ物体検出ネットワーク RODNet を提案する。
提案したRDDNetは、レーダフィールド・オブ・ビュー(FoV)におけるオブジェクトの可能性を予測するための入力として、RF画像のシーケンスを用いる。
集中的な実験により,提案手法は平均精度86%,オブジェクト検出性能88%を達成した。
- 参考スコア(独自算出の注目度): 30.42848269877982
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Various autonomous or assisted driving strategies have been facilitated
through the accurate and reliable perception of the environment around a
vehicle. Among the commonly used sensors, radar has usually been considered as
a robust and cost-effective solution even in adverse driving scenarios, e.g.,
weak/strong lighting or bad weather. Instead of considering to fuse the
unreliable information from all available sensors, perception from pure radar
data becomes a valuable alternative that is worth exploring. In this paper, we
propose a deep radar object detection network, named RODNet, which is
cross-supervised by a camera-radar fused algorithm without laborious annotation
efforts, to effectively detect objects from the radio frequency (RF) images in
real-time. First, the raw signals captured by millimeter-wave radars are
transformed to RF images in range-azimuth coordinates. Second, our proposed
RODNet takes a sequence of RF images as the input to predict the likelihood of
objects in the radar field of view (FoV). Two customized modules are also added
to handle multi-chirp information and object relative motion. Instead of using
human-labeled ground truth for training, the proposed RODNet is
cross-supervised by a novel 3D localization of detected objects using a
camera-radar fusion (CRF) strategy in the training stage. Finally, we propose a
method to evaluate the object detection performance of the RODNet. Due to no
existing public dataset available for our task, we create a new dataset, named
CRUW, which contains synchronized RGB and RF image sequences in various driving
scenarios. With intensive experiments, our proposed cross-supervised RODNet
achieves 86% average precision and 88% average recall of object detection
performance, which shows the robustness to noisy scenarios in various driving
conditions.
- Abstract(参考訳): 様々な自律的または補助的な運転戦略は、車両周辺の環境の正確かつ信頼性の高い認識を通じて進められている。
一般的に使用されるセンサーのうち、レーダーは通常、弱い/強い照明や悪天候など、悪質な運転シナリオにおいても堅牢で費用対効果の高いソリューションとみなされてきた。
利用可能なすべてのセンサーから信頼できない情報を融合する代わりに、純粋なレーダーデータからの認識は探究する価値のある代替手段となる。
本稿では,無線周波数(rf)画像から物体を効果的に検出するために,カメラとレーダーを融合したアルゴリズムでクロス教師リングを行うrodnetという深層レーダ物体検出ネットワークを提案する。
まず、ミリ波レーダーで捉えた生信号を、範囲方位座標のRF画像に変換する。
第二に、提案されたRODNetは、レーダー視野(FoV)における物体の可能性を予測するために入力としてRF画像のシーケンスを取ります。
マルチチャープ情報とオブジェクト相対運動を扱うために、カスタマイズされたモジュールも2つ追加されている。
RODNetは,人間ラベル付き地上の真理をトレーニングに用いる代わりに,カメラレーダ融合(CRF)戦略を用いて検出対象の3次元局所化を行う。
最後に,RODNetの物体検出性能を評価する手法を提案する。
タスクに利用可能な公開データセットが存在しないため、さまざまな運転シナリオで同期RGBとRF画像シーケンスを含むCRUWという新しいデータセットを作成しました。
集中実験により、86%の平均精度と88%の平均オブジェクト検出性能のリコールを実現し、さまざまな運転条件における騒々しいシナリオへの堅牢性を示します。
関連論文リスト
- RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - ROFusion: Efficient Object Detection using Hybrid Point-wise
Radar-Optical Fusion [14.419658061805507]
本稿では,自律走行シナリオにおける物体検出のためのハイブリッドなポイントワイドレーダ・オプティカル融合手法を提案する。
このフレームワークは、マルチモーダルな特徴表現を学習するために統合されたレンジドップラースペクトルと画像の両方からの密集したコンテキスト情報から恩恵を受ける。
論文 参考訳(メタデータ) (2023-07-17T04:25:46Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - CramNet: Camera-Radar Fusion with Ray-Constrained Cross-Attention for
Robust 3D Object Detection [12.557361522985898]
本稿では,カメラとレーダーの読み取りを3次元空間に融合させるカメラレーダマッチングネットワークCramNetを提案する。
本手法は, カメラやレーダセンサが車両内で突然故障した場合においても, 頑健な3次元物体検出を実現するセンサモダリティ・ドロップアウトによるトレーニングを支援する。
論文 参考訳(メタデータ) (2022-10-17T17:18:47Z) - NVRadarNet: Real-Time Radar Obstacle and Free Space Detection for
Autonomous Driving [57.03126447713602]
本稿では,自動車のRADARセンサを用いて動的障害物や乾燥可能な自由空間を検出するディープニューラルネットワーク(DNN)を提案する。
ネットワークは組み込みGPU上でリアルタイムよりも高速に動作し、地理的領域にわたって優れた一般化を示す。
論文 参考訳(メタデータ) (2022-09-29T01:30:34Z) - Rethinking of Radar's Role: A Camera-Radar Dataset and Systematic
Annotator via Coordinate Alignment [38.24705460170415]
CRUWと呼ばれる新しいデータセットを体系的なアノテーションとパフォーマンス評価システムで提案する。
CRUWは、レーダーの無線周波数(RF)画像から3Dのオブジェクトを純粋に分類し、ローカライズすることを目指しています。
私たちの知る限り、CRUWは体系的なアノテーションと評価システムを備えた最初の公開大規模データセットです。
論文 参考訳(メタデータ) (2021-05-11T17:13:45Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - RODNet: Radar Object Detection Using Cross-Modal Supervision [34.33920572597379]
レーダーは通常、厳しい運転シナリオではカメラよりも頑丈である。
カメラが撮影したRGB画像とは異なり、レーダー信号からのセマンティック情報は明らかに抽出が困難である。
レーダ周波数データからオブジェクトを純粋に検出するディープレーダオブジェクト検出ネットワーク(RODNet)を提案する。
論文 参考訳(メタデータ) (2020-03-03T22:33:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。