論文の概要: Probabilistic Oriented Object Detection in Automotive Radar
- arxiv url: http://arxiv.org/abs/2004.05310v2
- Date: Sat, 18 Apr 2020 03:49:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 12:58:41.747716
- Title: Probabilistic Oriented Object Detection in Automotive Radar
- Title(参考訳): 自動車レーダにおける確率的指向物体検出
- Authors: Xu Dong, Pengluo Wang, Pengyue Zhang, Langechuan Liu
- Abstract要約: 本稿では,レーダー物体検出のためのディープラーニングに基づくアルゴリズムを提案する。
我々は102544フレームの生レーダと同期LiDARデータを備えた新しいマルチモーダルデータセットを作成しました。
我々の最高性能レーダ検出モデルは、指向性IoU0.3で77.28%APを達成した。
- 参考スコア(独自算出の注目度): 8.281391209717103
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous radar has been an integral part of advanced driver assistance
systems due to its robustness to adverse weather and various lighting
conditions. Conventional automotive radars use digital signal processing (DSP)
algorithms to process raw data into sparse radar pins that do not provide
information regarding the size and orientation of the objects. In this paper,
we propose a deep-learning based algorithm for radar object detection. The
algorithm takes in radar data in its raw tensor representation and places
probabilistic oriented bounding boxes around the detected objects in
bird's-eye-view space. We created a new multimodal dataset with 102544 frames
of raw radar and synchronized LiDAR data. To reduce human annotation effort we
developed a scalable pipeline to automatically annotate ground truth using
LiDAR as reference. Based on this dataset we developed a vehicle detection
pipeline using raw radar data as the only input. Our best performing radar
detection model achieves 77.28\% AP under oriented IoU of 0.3. To the best of
our knowledge, this is the first attempt to investigate object detection with
raw radar data for conventional corner automotive radars.
- Abstract(参考訳): 自律レーダーは、悪天候や様々な照明条件に対する堅牢性のために、高度な運転支援システムの不可欠な部分であった。
従来の自動車レーダーは、デジタル信号処理(DSP)アルゴリズムを使用して、オブジェクトのサイズや方向に関する情報を提供しないスパースレーダーピンに生データを処理している。
本稿では,レーダー物体検出のためのディープラーニングに基づくアルゴリズムを提案する。
このアルゴリズムはレーダーデータを生のテンソル表現に取り入れ、検出された物体の周囲に確率的指向のバウンディングボックスを配置する。
我々は102544フレームの生レーダと同期LiDARデータを備えた新しいマルチモーダルデータセットを作成しました。
人間のアノテーションの労力を減らすため、我々はLiDARをリファレンスとして、地上の真実を自動的に注釈付けするスケーラブルなパイプラインを開発しました。
このデータセットに基づいて,生のレーダデータのみを入力とした車両検出パイプラインを開発した。
最高性能のレーダ検出モデルは指向iou 0.3で77.28\%apを達成した。
我々の知る限りでは、これは従来のコーナーカーレーダのための生レーダーデータを用いた物体検出の最初の試みである。
関連論文リスト
- Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - RadarFormer: Lightweight and Accurate Real-Time Radar Object Detection
Model [13.214257841152033]
レーダー中心のデータセットは、レーダー知覚のためのディープラーニング技術の開発にはあまり注目されていない。
本稿では,視覚深層学習における最先端技術を活用したトランスフォーマーモデルRadarFormerを提案する。
また、チャネルチャープ時マージモジュールを導入し、精度を損なうことなく、モデルのサイズと複雑さを10倍以上に削減する。
論文 参考訳(メタデータ) (2023-04-17T17:07:35Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - Radar Artifact Labeling Framework (RALF): Method for Plausible Radar
Detections in Datasets [2.5899040911480187]
粗いレーダ点雲のラベル付けのためのクロスセンサレーダアーチファクトラベルフレームワーク(RALF)を提案する。
RALFは、レーダーの生検出のための可視性ラベルを提供し、アーティファクトとターゲットを区別する。
半手動ラベル付き地上真理データセットの3.28cdot106$ポイントの誤差測定値を評価することにより,結果を検証する。
論文 参考訳(メタデータ) (2020-12-03T15:11:31Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - Deep Learning on Radar Centric 3D Object Detection [4.822598110892847]
レーダーのみを用いた3次元物体検出に深層学習手法を導入する。
レーダラベル付きデータの欠如を克服するために,豊富なLiDARデータを利用する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-27T10:16:46Z) - Experiments with mmWave Automotive Radar Test-bed [10.006245521984697]
新しいAdaptive Driver Assisted Systems(ADAS)をサポートするために、ミリ波(mmW)レーダーが商用車にますます統合されている。
テキサス・インスツルメンツ(TI)の自動車チップセットをベースとしたFMCWレーダの試作を行った。
論文 参考訳(メタデータ) (2019-12-29T02:14:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。