論文の概要: Off-the-shelf sensor vs. experimental radar -- How much resolution is
necessary in automotive radar classification?
- arxiv url: http://arxiv.org/abs/2006.05485v1
- Date: Tue, 9 Jun 2020 19:51:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 14:45:13.531032
- Title: Off-the-shelf sensor vs. experimental radar -- How much resolution is
necessary in automotive radar classification?
- Title(参考訳): オフザシェルフセンサー対実験レーダー -- 自動車レーダーの分類にどの程度の解像度が必要か?
- Authors: Nicolas Scheiner, Ole Schumann, Florian Kraus, Nils Appenrodt,
J\"urgen Dickmann, Bernhard Sick
- Abstract要約: 従来のレーダーセンサーの解像度はスパースデータ表現をもたらす。
新しいセンサーは、この挑戦的な分野に応用されるのを待っている。
異なるレーダ世代の2つのセンサを互いに評価する。
- 参考スコア(独自算出の注目度): 5.452955349285637
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Radar-based road user detection is an important topic in the context of
autonomous driving applications. The resolution of conventional automotive
radar sensors results in a sparse data representation which is tough to refine
during subsequent signal processing. On the other hand, a new sensor generation
is waiting in the wings for its application in this challenging field. In this
article, two sensors of different radar generations are evaluated against each
other. The evaluation criterion is the performance on moving road user object
detection and classification tasks. To this end, two data sets originating from
an off-the-shelf radar and a high resolution next generation radar are
compared. Special attention is given on how the two data sets are assembled in
order to make them comparable. The utilized object detector consists of a
clustering algorithm, a feature extraction module, and a recurrent neural
network ensemble for classification. For the assessment, all components are
evaluated both individually and, for the first time, as a whole. This allows
for indicating where overall performance improvements have their origin in the
pipeline. Furthermore, the generalization capabilities of both data sets are
evaluated and important comparison metrics for automotive radar object
detection are discussed. Results show clear benefits of the next generation
radar. Interestingly, those benefits do not actually occur due to better
performance at the classification stage, but rather because of the vast
improvements at the clustering stage.
- Abstract(参考訳): レーダベースの道路ユーザ検出は、自動運転アプリケーションにおいて重要なトピックである。
従来の自動車レーダセンサの解像度は、その後の信号処理において洗練が難しいスパースデータ表現をもたらす。
一方、新しいセンサー生成は、この困難な分野での応用を翼の中で待っている。
本稿では、異なるレーダ世代の2つのセンサを互いに比較評価する。
評価基準は移動道路利用者の物体検出および分類タスクにおける性能である。
この目的のために、市販のレーダと高解像度次世代レーダの2つのデータセットを比較する。
比較するために、2つのデータセットの組み立て方法に特に注意が払われている。
使用されるオブジェクト検出器は、クラスタリングアルゴリズム、特徴抽出モジュール、および分類のための再帰ニューラルネットワークアンサンブルからなる。
評価のために、すべてのコンポーネントは個別に、そして、初めて、全体として評価されます。
これにより、全体的なパフォーマンス改善がパイプラインに起源を持つ場所を示すことができる。
さらに,両データセットの一般化能力を評価し,レーダ物体検出のための重要な比較指標について論じる。
結果は次世代レーダーの利点を明確に示している。
興味深いことに、これらのメリットは、分類段階でのパフォーマンス向上のためではなく、クラスタリングステージでの大幅な改善によるものだ。
関連論文リスト
- The Radar Ghost Dataset -- An Evaluation of Ghost Objects in Automotive Radar Data [12.653873936535149]
典型的な交通シナリオでは、レーダーの放射された信号に対して、さらに多くの表面が平坦に見える。
この結果、レーダー信号のマルチパス反射、いわゆるゴースト検出が生じる。
各種のゴースト検出のための詳細な手動アノテーションを用いたデータセットを提案する。
論文 参考訳(メタデータ) (2024-04-01T19:20:32Z) - Exploring Radar Data Representations in Autonomous Driving: A Comprehensive Review [9.68427762815025]
レビューでは、自律運転システムで使用されるさまざまなレーダーデータ表現の探索に焦点を当てている。
レーダセンサの機能と限界について紹介する。
各レーダ表現について、関連するデータセット、方法、利点、限界について検討する。
論文 参考訳(メタデータ) (2023-12-08T06:31:19Z) - Radar-Lidar Fusion for Object Detection by Designing Effective
Convolution Networks [18.17057711053028]
オブジェクト検出の強化のために,レーダデータとライダーデータを統合したデュアルブランチフレームワークを提案する。
この結果は、最先端の手法を1.89%ドルと2.61%ドルで上回り、好ましくない気象条件で上回っていることを示している。
論文 参考訳(メタデータ) (2023-10-30T10:18:40Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - Deep Instance Segmentation with High-Resolution Automotive Radar [2.167586397005864]
本稿では,レーダ検出点を用いた2つの効率的な分割法を提案する。
1つは、PointNet++フレームワークを使用してエンドツーエンドのディープラーニング駆動方式で実装されている。
もう一つは、セマンティック情報を用いたレーダー検出点のクラスタリングに基づいている。
論文 参考訳(メタデータ) (2021-10-05T01:18:27Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - Multi-View Radar Semantic Segmentation [3.2093811507874768]
自動車用レーダーは、周囲の物体の特性を測定する安価なアクティブセンサーである。
レーダー生データのサイズと複雑さのため、シーン理解にはほとんど使われない。
我々は,複数の新しいアーキテクチャとそれに伴う損失を提案し,レンジアングル・ドップラーレーダテンソルの複数の"ビュー"を分析し,意味的にセグメンテーションする。
論文 参考訳(メタデータ) (2021-03-30T09:56:41Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。