論文の概要: Motion Classification and Height Estimation of Pedestrians Using Sparse
Radar Data
- arxiv url: http://arxiv.org/abs/2103.02278v1
- Date: Wed, 3 Mar 2021 09:36:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 15:00:36.960911
- Title: Motion Classification and Height Estimation of Pedestrians Using Sparse
Radar Data
- Title(参考訳): スパースレーダデータを用いた歩行者の動作分類と身長推定
- Authors: Markus Horn, Ole Schumann, Markus Hahn, J\"urgen Dickmann, Klaus
Dietmayer
- Abstract要約: 運転支援システムや高度に自律的な運転には周辺車両環境の完全な概要が重要である。
本研究は,2次元レーダー目標を用いて歩行歩行者の体長を推定できることを実証する。
- 参考スコア(独自算出の注目度): 8.366962883442035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A complete overview of the surrounding vehicle environment is important for
driver assistance systems and highly autonomous driving. Fusing results of
multiple sensor types like camera, radar and lidar is crucial for increasing
the robustness. The detection and classification of objects like cars, bicycles
or pedestrians has been analyzed in the past for many sensor types. Beyond
that, it is also helpful to refine these classes and distinguish for example
between different pedestrian types or activities. This task is usually
performed on camera data, though recent developments are based on radar
spectrograms. However, for most automotive radar systems, it is only possible
to obtain radar targets instead of the original spectrograms. This work
demonstrates that it is possible to estimate the body height of walking
pedestrians using 2D radar targets. Furthermore, different pedestrian motion
types are classified.
- Abstract(参考訳): 運転支援システムや高度に自律的な運転には周辺車両環境の完全な概要が重要である。
カメラ、レーダー、ライダーなどの複数のセンサーの融合は、ロバスト性を高めるために不可欠である。
車、自転車、歩行者などの物体の検出と分類は、これまで多くのセンサータイプで分析されてきた。
さらに、これらのクラスを洗練させ、例えば異なる歩行者タイプや活動の区別にも役立ちます。
このタスクは通常、カメラデータで実行されるが、最近の開発はレーダースペクトログラムに基づいている。
しかし、ほとんどの自動車用レーダーシステムでは、オリジナルのスペクトログラムの代わりにレーダーターゲットを得ることしかできない。
本研究は,2次元レーダー目標を用いて歩行歩行者の体長を推定できることを実証する。
さらに、歩行者の動作の種類を分類する。
関連論文リスト
- Radar Perception in Autonomous Driving: Exploring Different Data
Representations [6.796326492184654]
レビューでは、自律運転システムで使用されるさまざまなレーダーデータ表現の探索に焦点を当てている。
レーダセンサの機能と限界について紹介する。
各レーダ表現について、関連するデータセット、方法、利点、限界について検討する。
論文 参考訳(メタデータ) (2023-12-08T06:31:19Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Pedestrian Detection: Domain Generalization, CNNs, Transformers and
Beyond [82.37430109152383]
その結果、現在の歩行者検知器は、クロスデータセット評価において、たとえ小さな領域シフトであっても処理が不十分であることがわかった。
限定的な一般化は、その方法と現在のデータ源の2つの主要な要因に帰着する。
本稿では、一般化を改善する進歩的な微調整戦略を提案する。
論文 参考訳(メタデータ) (2022-01-10T06:00:26Z) - Deep Instance Segmentation with High-Resolution Automotive Radar [2.167586397005864]
本稿では,レーダ検出点を用いた2つの効率的な分割法を提案する。
1つは、PointNet++フレームワークを使用してエンドツーエンドのディープラーニング駆動方式で実装されている。
もう一つは、セマンティック情報を用いたレーダー検出点のクラスタリングに基づいている。
論文 参考訳(メタデータ) (2021-10-05T01:18:27Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - Multi-View Radar Semantic Segmentation [3.2093811507874768]
自動車用レーダーは、周囲の物体の特性を測定する安価なアクティブセンサーである。
レーダー生データのサイズと複雑さのため、シーン理解にはほとんど使われない。
我々は,複数の新しいアーキテクチャとそれに伴う損失を提案し,レンジアングル・ドップラーレーダテンソルの複数の"ビュー"を分析し,意味的にセグメンテーションする。
論文 参考訳(メタデータ) (2021-03-30T09:56:41Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - Off-the-shelf sensor vs. experimental radar -- How much resolution is
necessary in automotive radar classification? [5.452955349285637]
従来のレーダーセンサーの解像度はスパースデータ表現をもたらす。
新しいセンサーは、この挑戦的な分野に応用されるのを待っている。
異なるレーダ世代の2つのセンサを互いに評価する。
論文 参考訳(メタデータ) (2020-06-09T19:51:34Z) - CARRADA Dataset: Camera and Automotive Radar with Range-Angle-Doppler
Annotations [0.0]
距離角-ドップラーアノテーションを用いた同期カメラとレーダ記録のデータセットであるCARRADAを紹介する。
また、データセットのアノテートに使用された半自動アノテーション手法と、レーダーセマンティックセグメンテーションベースラインを提案する。
論文 参考訳(メタデータ) (2020-05-04T13:14:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。