論文の概要: Motion Classification and Height Estimation of Pedestrians Using Sparse
Radar Data
- arxiv url: http://arxiv.org/abs/2103.02278v1
- Date: Wed, 3 Mar 2021 09:36:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 15:00:36.960911
- Title: Motion Classification and Height Estimation of Pedestrians Using Sparse
Radar Data
- Title(参考訳): スパースレーダデータを用いた歩行者の動作分類と身長推定
- Authors: Markus Horn, Ole Schumann, Markus Hahn, J\"urgen Dickmann, Klaus
Dietmayer
- Abstract要約: 運転支援システムや高度に自律的な運転には周辺車両環境の完全な概要が重要である。
本研究は,2次元レーダー目標を用いて歩行歩行者の体長を推定できることを実証する。
- 参考スコア(独自算出の注目度): 8.366962883442035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A complete overview of the surrounding vehicle environment is important for
driver assistance systems and highly autonomous driving. Fusing results of
multiple sensor types like camera, radar and lidar is crucial for increasing
the robustness. The detection and classification of objects like cars, bicycles
or pedestrians has been analyzed in the past for many sensor types. Beyond
that, it is also helpful to refine these classes and distinguish for example
between different pedestrian types or activities. This task is usually
performed on camera data, though recent developments are based on radar
spectrograms. However, for most automotive radar systems, it is only possible
to obtain radar targets instead of the original spectrograms. This work
demonstrates that it is possible to estimate the body height of walking
pedestrians using 2D radar targets. Furthermore, different pedestrian motion
types are classified.
- Abstract(参考訳): 運転支援システムや高度に自律的な運転には周辺車両環境の完全な概要が重要である。
カメラ、レーダー、ライダーなどの複数のセンサーの融合は、ロバスト性を高めるために不可欠である。
車、自転車、歩行者などの物体の検出と分類は、これまで多くのセンサータイプで分析されてきた。
さらに、これらのクラスを洗練させ、例えば異なる歩行者タイプや活動の区別にも役立ちます。
このタスクは通常、カメラデータで実行されるが、最近の開発はレーダースペクトログラムに基づいている。
しかし、ほとんどの自動車用レーダーシステムでは、オリジナルのスペクトログラムの代わりにレーダーターゲットを得ることしかできない。
本研究は,2次元レーダー目標を用いて歩行歩行者の体長を推定できることを実証する。
さらに、歩行者の動作の種類を分類する。
関連論文リスト
- Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - The Radar Ghost Dataset -- An Evaluation of Ghost Objects in Automotive Radar Data [12.653873936535149]
典型的な交通シナリオでは、レーダーの放射された信号に対して、さらに多くの表面が平坦に見える。
この結果、レーダー信号のマルチパス反射、いわゆるゴースト検出が生じる。
各種のゴースト検出のための詳細な手動アノテーションを用いたデータセットを提案する。
論文 参考訳(メタデータ) (2024-04-01T19:20:32Z) - Exploring Radar Data Representations in Autonomous Driving: A Comprehensive Review [9.68427762815025]
レビューでは、自律運転システムで使用されるさまざまなレーダーデータ表現の探索に焦点を当てている。
レーダセンサの機能と限界について紹介する。
各レーダ表現について、関連するデータセット、方法、利点、限界について検討する。
論文 参考訳(メタデータ) (2023-12-08T06:31:19Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Deep Instance Segmentation with High-Resolution Automotive Radar [2.167586397005864]
本稿では,レーダ検出点を用いた2つの効率的な分割法を提案する。
1つは、PointNet++フレームワークを使用してエンドツーエンドのディープラーニング駆動方式で実装されている。
もう一つは、セマンティック情報を用いたレーダー検出点のクラスタリングに基づいている。
論文 参考訳(メタデータ) (2021-10-05T01:18:27Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - Multi-View Radar Semantic Segmentation [3.2093811507874768]
自動車用レーダーは、周囲の物体の特性を測定する安価なアクティブセンサーである。
レーダー生データのサイズと複雑さのため、シーン理解にはほとんど使われない。
我々は,複数の新しいアーキテクチャとそれに伴う損失を提案し,レンジアングル・ドップラーレーダテンソルの複数の"ビュー"を分析し,意味的にセグメンテーションする。
論文 参考訳(メタデータ) (2021-03-30T09:56:41Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - CARRADA Dataset: Camera and Automotive Radar with Range-Angle-Doppler
Annotations [0.0]
距離角-ドップラーアノテーションを用いた同期カメラとレーダ記録のデータセットであるCARRADAを紹介する。
また、データセットのアノテートに使用された半自動アノテーション手法と、レーダーセマンティックセグメンテーションベースラインを提案する。
論文 参考訳(メタデータ) (2020-05-04T13:14:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。