論文の概要: RADDet: Range-Azimuth-Doppler based Radar Object Detection for Dynamic
Road Users
- arxiv url: http://arxiv.org/abs/2105.00363v1
- Date: Sun, 2 May 2021 00:25:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 13:49:51.554108
- Title: RADDet: Range-Azimuth-Doppler based Radar Object Detection for Dynamic
Road Users
- Title(参考訳): raddet: ダイナミックロードユーザのためのレンジアジマス・ドップラーに基づくレーダ物体検出
- Authors: Ao Zhang, Farzan Erlik Nowruzi, Robert Laganiere
- Abstract要約: レーダデータを含む新しいレーダデータセットをRange-Azimuth-Dopplerテンソルとして収集する。
データセットを構築するために,インスタンスワイズ自動アノテーション手法を提案する。
Range-Azimuth-Dopplerベースのマルチクラスオブジェクト検出ディープラーニングモデルを提案する。
- 参考スコア(独自算出の注目度): 6.61211659120882
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Object detection using automotive radars has not been explored with deep
learning models in comparison to the camera based approaches. This can be
attributed to the lack of public radar datasets. In this paper, we collect a
novel radar dataset that contains radar data in the form of
Range-Azimuth-Doppler tensors along with the bounding boxes on the tensor for
dynamic road users, category labels, and 2D bounding boxes on the Cartesian
Bird-Eye-View range map. To build the dataset, we propose an instance-wise
auto-annotation method. Furthermore, a novel Range-Azimuth-Doppler based
multi-class object detection deep learning model is proposed. The algorithm is
a one-stage anchor-based detector that generates both 3D bounding boxes and 2D
bounding boxes on Range-Azimuth-Doppler and Cartesian domains, respectively.
Our proposed algorithm achieves 56.3% AP with IOU of 0.3 on 3D bounding box
predictions, and 51.6% with IOU of 0.5 on 2D bounding box prediction. Our
dataset and the code can be found at
https://github.com/ZhangAoCanada/RADDet.git.
- Abstract(参考訳): 自動車レーダを用いた物体検出は,カメラによるアプローチと比較して,ディープラーニングモデルでは研究されていない。
これは、公開レーダデータセットの欠如による可能性がある。
本論文では,トラダデータを含む新しいレーダーデータセットを,動的道路利用者のためのテンソル上のバウンディングボックス,カテゴリラベル,およびデカルト的バード・アイ・ビュー・レンジマップ上の2dバウンディングボックスとともに収集する。
データセットを構築するために,インスタンスワイズ自動アノテーション手法を提案する。
さらに,Range-Azimuth-Dopplerに基づく多クラスオブジェクト検出深層学習モデルを提案する。
このアルゴリズムは1段のアンカーベース検出器で、それぞれレンジ・アジマス・ドップラー領域とカルテシアン領域の3次元境界ボックスと2次元境界ボックスを生成する。
提案アルゴリズムは3次元境界ボックス予測では0.3のIOUで56.3%AP、2次元境界ボックス予測では0.5のIOUで51.6%APを達成した。
私たちのデータセットとコードはhttps://github.com/ZhangAoCanada/RADDet.git.comで参照できます。
関連論文リスト
- GET-UP: GEomeTric-aware Depth Estimation with Radar Points UPsampling [7.90238039959534]
既存のアルゴリズムは3Dポイントを画像面に投影してレーダデータを処理し、画素レベルの特徴抽出を行う。
レーダデータから2次元情報と3次元情報を交換・集約するために,注目度の高いグラフニューラルネットワーク(GNN)を利用するGET-UPを提案する。
提案したGET-UPをnuScenesデータセット上でベンチマークし,従来最高のパフォーマンスモデルよりも15.3%,14.7%改善した。
論文 参考訳(メタデータ) (2024-09-02T14:15:09Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - Fully Sparse Fusion for 3D Object Detection [69.32694845027927]
現在広く使われているマルチモーダル3D検出法は、通常、密度の高いBird-Eye-View特徴マップを使用するLiDARベースの検出器上に構築されている。
完全にスパースなアーキテクチャは、長距離知覚において非常に効率的であるため、注目を集めている。
本稿では,新たに出現するフルスパースアーキテクチャにおいて,画像のモダリティを効果的に活用する方法を検討する。
論文 参考訳(メタデータ) (2023-04-24T17:57:43Z) - Fully Sparse 3D Object Detection [57.05834683261658]
長距離LiDARオブジェクト検出のためのフルスパース3Dオブジェクト検出器(FSD)を構築した。
FSDは一般的なスパース・ボクセル・エンコーダと新しいスパース・インスタンス認識(SIR)モジュール上に構築されている。
SIRは、ポイントをインスタンスにグループ化することで、以前のポイントベースのメソッドでの待ち行列クエリを避ける。
論文 参考訳(メタデータ) (2022-07-20T17:01:33Z) - FGR: Frustum-Aware Geometric Reasoning for Weakly Supervised 3D Vehicle
Detection [81.79171905308827]
3Dアノテーションを使わずに点雲中の車両を検出するためのフラストラム対応幾何推論(FGR)を提案する。
本手法は粗い3次元セグメンテーションと3次元バウンディングボックス推定の2段階からなる。
2Dバウンディングボックスとスパースポイントクラウドだけで、3D空間内のオブジェクトを正確に検出できます。
論文 参考訳(メタデータ) (2021-05-17T07:29:55Z) - CNN based Road User Detection using the 3D Radar Cube [6.576173998482649]
移動道路利用者(歩行者、サイクリスト、車)を対象とした新しいレーダーによる単フレームマルチクラス検知手法を提案する。
この方法は、レーダー目標レベルとオブジェクトレベルの両方に関するクラス情報を提供する。
実生活データセットを用いた実験では,本手法がターゲットとオブジェクトの両面で最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2020-04-25T15:07:03Z) - Probabilistic Oriented Object Detection in Automotive Radar [8.281391209717103]
本稿では,レーダー物体検出のためのディープラーニングに基づくアルゴリズムを提案する。
我々は102544フレームの生レーダと同期LiDARデータを備えた新しいマルチモーダルデータセットを作成しました。
我々の最高性能レーダ検出モデルは、指向性IoU0.3で77.28%APを達成した。
論文 参考訳(メタデータ) (2020-04-11T05:29:32Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z) - RODNet: Radar Object Detection Using Cross-Modal Supervision [34.33920572597379]
レーダーは通常、厳しい運転シナリオではカメラよりも頑丈である。
カメラが撮影したRGB画像とは異なり、レーダー信号からのセマンティック情報は明らかに抽出が困難である。
レーダ周波数データからオブジェクトを純粋に検出するディープレーダオブジェクト検出ネットワーク(RODNet)を提案する。
論文 参考訳(メタデータ) (2020-03-03T22:33:16Z) - Deep Learning on Radar Centric 3D Object Detection [4.822598110892847]
レーダーのみを用いた3次元物体検出に深層学習手法を導入する。
レーダラベル付きデータの欠如を克服するために,豊富なLiDARデータを利用する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-27T10:16:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。