論文の概要: RODNet: Radar Object Detection Using Cross-Modal Supervision
- arxiv url: http://arxiv.org/abs/2003.01816v2
- Date: Mon, 8 Feb 2021 07:00:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 23:17:53.721200
- Title: RODNet: Radar Object Detection Using Cross-Modal Supervision
- Title(参考訳): rodnet:クロスモーダル監視を用いたレーダー物体検出
- Authors: Yizhou Wang, Zhongyu Jiang, Xiangyu Gao, Jenq-Neng Hwang, Guanbin
Xing, Hui Liu
- Abstract要約: レーダーは通常、厳しい運転シナリオではカメラよりも頑丈である。
カメラが撮影したRGB画像とは異なり、レーダー信号からのセマンティック情報は明らかに抽出が困難である。
レーダ周波数データからオブジェクトを純粋に検出するディープレーダオブジェクト検出ネットワーク(RODNet)を提案する。
- 参考スコア(独自算出の注目度): 34.33920572597379
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Radar is usually more robust than the camera in severe driving scenarios,
e.g., weak/strong lighting and bad weather. However, unlike RGB images captured
by a camera, the semantic information from the radar signals is noticeably
difficult to extract. In this paper, we propose a deep radar object detection
network (RODNet), to effectively detect objects purely from the carefully
processed radar frequency data in the format of range-azimuth frequency
heatmaps (RAMaps). Three different 3D autoencoder based architectures are
introduced to predict object confidence distribution from each snippet of the
input RAMaps. The final detection results are then calculated using our
post-processing method, called location-based non-maximum suppression (L-NMS).
Instead of using burdensome human-labeled ground truth, we train the RODNet
using the annotations generated automatically by a novel 3D localization method
using a camera-radar fusion (CRF) strategy. To train and evaluate our method,
we build a new dataset -- CRUW, containing synchronized videos and RAMaps in
various driving scenarios. After intensive experiments, our RODNet shows
favorable object detection performance without the presence of the camera.
- Abstract(参考訳): レーダーは通常、弱い/強い照明や悪天候といった厳しい運転シナリオでカメラよりも頑丈である。
しかし、カメラが捉えたRGB画像とは異なり、レーダー信号からのセマンティック情報は明らかに抽出が困難である。
本稿では,レンジ方位周波数ヒートマップ(ramaps)のフォーマットにおいて,注意深く処理されたレーダ周波数データから物体を効果的に検出する深層レーダ物体検出ネットワーク(rodnet)を提案する。
入力ramapの各スニペットからオブジェクト信頼度分布を予測するために、3つの異なる3dオートエンコーダベースのアーキテクチャが導入された。
最終検出結果は,位置ベース非最大抑圧 (L-NMS) と呼ばれる後処理法を用いて計算される。
そこで我々は,カメラレーダ融合(CRF)戦略を用いて,新しい3Dローカライゼーション法によって自動生成されるアノテーションを用いてRDDNetを訓練する。
この手法をトレーニングし、評価するために、さまざまな駆動シナリオで同期ビデオとRAMapを含む新しいデータセットであるCRUWを構築した。
集中的な実験の後,RODNetはカメラを使わずに良好な物体検出性能を示した。
関連論文リスト
- RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - RCTrans: Radar-Camera Transformer via Radar Densifier and Sequential Decoder for 3D Object Detection [16.37397687985041]
レーダーカメラによる3D物体検出では、レーダーポイント雲は希少でノイズが多い。
我々はRadar-Pruning Transformer (RCTrans) という新しいクエリベースの検出手法を提案する。
提案手法は,最新のレーダーカメラによる3D検出結果を実現する。
論文 参考訳(メタデータ) (2024-12-17T11:02:36Z) - A Resource Efficient Fusion Network for Object Detection in Bird's-Eye View using Camera and Raw Radar Data [7.2508100569856975]
レーダデータの生のレンジ・ドップラースペクトルを用いてカメラ画像を処理する。
カメラエンコーダデコーダアーキテクチャを用いて,対応する特徴を抽出する。
得られた特徴写像はレンジ・アジマス特徴と融合し、RDスペクトルから復元して物体検出を行う。
論文 参考訳(メタデータ) (2024-11-20T13:26:13Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - CramNet: Camera-Radar Fusion with Ray-Constrained Cross-Attention for
Robust 3D Object Detection [12.557361522985898]
本稿では,カメラとレーダーの読み取りを3次元空間に融合させるカメラレーダマッチングネットワークCramNetを提案する。
本手法は, カメラやレーダセンサが車両内で突然故障した場合においても, 頑健な3次元物体検出を実現するセンサモダリティ・ドロップアウトによるトレーニングを支援する。
論文 参考訳(メタデータ) (2022-10-17T17:18:47Z) - RODNet: A Real-Time Radar Object Detection Network Cross-Supervised by
Camera-Radar Fused Object 3D Localization [30.42848269877982]
本稿では,カメラレーダ融合アルゴリズムによって相互に監視される深層レーダ物体検出ネットワーク RODNet を提案する。
提案したRDDNetは、レーダフィールド・オブ・ビュー(FoV)におけるオブジェクトの可能性を予測するための入力として、RF画像のシーケンスを用いる。
集中的な実験により,提案手法は平均精度86%,オブジェクト検出性能88%を達成した。
論文 参考訳(メタデータ) (2021-02-09T22:01:55Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - Expandable YOLO: 3D Object Detection from RGB-D Images [64.14512458954344]
本稿では,ステレオカメラから深度とカラー画像を入力する軽量物体検出器の構築を目的とする。
YOLOv3のネットワークアーキテクチャを中央から3Dに拡張することにより、深さ方向の出力が可能となる。
領域抽出結果の精度を確認するため、3次元空間におけるユニノン(IoU)の切断を導入する。
論文 参考訳(メタデータ) (2020-06-26T07:32:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。