論文の概要: Deep Instance Segmentation with High-Resolution Automotive Radar
- arxiv url: http://arxiv.org/abs/2110.01775v1
- Date: Tue, 5 Oct 2021 01:18:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-06 14:03:44.078323
- Title: Deep Instance Segmentation with High-Resolution Automotive Radar
- Title(参考訳): 高分解能自動車レーダを用いたディープインスタンスセグメンテーション
- Authors: Jianan Liu, Weiyi Xiong, Liping Bai, Yuxuan Xia, Bing Zhu
- Abstract要約: 本稿では,レーダ検出点を用いた2つの効率的な分割法を提案する。
1つは、PointNet++フレームワークを使用してエンドツーエンドのディープラーニング駆動方式で実装されている。
もう一つは、セマンティック情報を用いたレーダー検出点のクラスタリングに基づいている。
- 参考スコア(独自算出の注目度): 2.167586397005864
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automotive radar has been widely used in the modern advanced driver
assistance systems (ADAS) and autonomous driving system as it provides reliable
environmental perception in all-weather conditions with affordable cost.
However, automotive radar usually only plays as an auxiliary sensor since it
hardly supplies semantic and geometry information due to the sparsity of radar
detection points. Nonetheless, as development of high-resolution automotive
radar in recent years, more advanced perception functionality like instance
segmentation which has only been well explored using Lidar point clouds,
becomes possible by using automotive radar. Its data comes with rich contexts
such as Radar Cross Section (RCS) and micro-doppler effects which may
potentially be pertinent, and sometimes can even provide detection when the
field of view is completely obscured. Therefore, the effective utilization of
radar detection points data is an integral part of automotive perception. The
outcome from instance segmentation could be seen as comparable result of
clustering, and could be potentially used as the input of tracker for tracking
the targets. In this paper, we propose two efficient methods for instance
segmentation with radar detection points, one is implemented in an end-to-end
deep learning driven fashion using PointNet++ framework, and the other is based
on clustering of the radar detection points with semantic information. Both
approaches can be further improved by implementing visual multi-layer
perceptron (MLP). The effectiveness of the proposed methods is verified using
experimental results on the recent RadarScenes dataset.
- Abstract(参考訳): 自動車用レーダーは現代の先進運転支援システム(adas)や自動運転システムで広く使われており、低コストで全天候環境に信頼できる環境認識を提供する。
しかし、レーダー検出ポイントの間隔のため、意味や幾何学的な情報をほとんど供給しないため、自動車レーダーは補助センサーとしてのみ機能する。
しかし、近年の高分解能自動車レーダーの発展に伴い、リダ点雲で十分に調査されているインスタンスセグメンテーションのようなより高度な認識機能は、自動車レーダを使用することで可能になる。
そのデータはレーダークロスセクション(RCS)やマイクロドップラー効果のようなリッチなコンテキストを伴い、視野が完全に見えなくなると検出することもある。
したがって、レーダ検出点データの有効利用は、自動車認識の不可欠な部分である。
インスタンスセグメンテーションの結果はクラスタリングの結果に匹敵するものと見なすことができ、ターゲットを追跡するトラッカーのインプットとして使用できる可能性がある。
本稿では,レーダ検出点を用いた2つの効率的なセグメント化手法を提案し,その1つはPointNet++フレームワークを用いてエンドツーエンドのディープラーニング駆動方式で実装し,もう1つはセマンティック情報を用いたレーダ検出点のクラスタリングに基づく。
両方のアプローチは、視覚的多層パーセプトロン(MLP)を実装することでさらに改善できる。
提案手法の有効性を最近のRadarScenesデータセットを用いて実験的に検証した。
関連論文リスト
- Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Leveraging Self-Supervised Instance Contrastive Learning for Radar
Object Detection [7.728838099011661]
本稿では,レーダ物体検出装置を事前訓練する際,RCLを例に紹介する。
我々は、より少ないデータで学習するために、物体検出器のバックボーン、頭、首を事前訓練することを目指している。
論文 参考訳(メタデータ) (2024-02-13T12:53:33Z) - Exploring Radar Data Representations in Autonomous Driving: A Comprehensive Review [9.68427762815025]
レビューでは、自律運転システムで使用されるさまざまなレーダーデータ表現の探索に焦点を当てている。
レーダセンサの機能と限界について紹介する。
各レーダ表現について、関連するデータセット、方法、利点、限界について検討する。
論文 参考訳(メタデータ) (2023-12-08T06:31:19Z) - Bootstrapping Autonomous Driving Radars with Self-Supervised Learning [13.13679517730015]
レーダモデルの訓練は、大規模レーダデータの注釈付けのコストと難しさによって妨げられている。
本研究では,未ラベルのレーダデータを事前学習型レーダのみの埋め込みに活用して,自律型認識タスクを実現するための自己教師型学習フレームワークを提案する。
下流オブジェクト検出に使用する場合、提案するセルフスーパービジョンフレームワークが、最先端の教師付きベースラインの精度をmAPで5.8%向上できることを実証する。
論文 参考訳(メタデータ) (2023-12-07T18:38:39Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - NVRadarNet: Real-Time Radar Obstacle and Free Space Detection for
Autonomous Driving [57.03126447713602]
本稿では,自動車のRADARセンサを用いて動的障害物や乾燥可能な自由空間を検出するディープニューラルネットワーク(DNN)を提案する。
ネットワークは組み込みGPU上でリアルタイムよりも高速に動作し、地理的領域にわたって優れた一般化を示す。
論文 参考訳(メタデータ) (2022-09-29T01:30:34Z) - ERASE-Net: Efficient Segmentation Networks for Automotive Radar Signals [13.035425992944543]
本稿では,効率的なレーダセグメンテーションネットワークであるERASE-Netを導入し,生のレーダ信号を意味的に分割する。
本手法は,最新技術(SOTA)と比較して,レーダセマンティックセグメンテーションタスクにおいて優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2022-09-26T18:23:22Z) - Radar Artifact Labeling Framework (RALF): Method for Plausible Radar
Detections in Datasets [2.5899040911480187]
粗いレーダ点雲のラベル付けのためのクロスセンサレーダアーチファクトラベルフレームワーク(RALF)を提案する。
RALFは、レーダーの生検出のための可視性ラベルを提供し、アーティファクトとターゲットを区別する。
半手動ラベル付き地上真理データセットの3.28cdot106$ポイントの誤差測定値を評価することにより,結果を検証する。
論文 参考訳(メタデータ) (2020-12-03T15:11:31Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。