論文の概要: Multi-View Radar Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2103.16214v1
- Date: Tue, 30 Mar 2021 09:56:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 14:56:06.646331
- Title: Multi-View Radar Semantic Segmentation
- Title(参考訳): マルチビューレーダセマンティックセマンティックセグメンテーション
- Authors: Arthur Ouaknine, Alasdair Newson, Patrick P\'erez, Florence Tupin,
Julien Rebut
- Abstract要約: 自動車用レーダーは、周囲の物体の特性を測定する安価なアクティブセンサーである。
レーダー生データのサイズと複雑さのため、シーン理解にはほとんど使われない。
我々は,複数の新しいアーキテクチャとそれに伴う損失を提案し,レンジアングル・ドップラーレーダテンソルの複数の"ビュー"を分析し,意味的にセグメンテーションする。
- 参考スコア(独自算出の注目度): 3.2093811507874768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding the scene around the ego-vehicle is key to assisted and
autonomous driving. Nowadays, this is mostly conducted using cameras and laser
scanners, despite their reduced performances in adverse weather conditions.
Automotive radars are low-cost active sensors that measure properties of
surrounding objects, including their relative speed, and have the key advantage
of not being impacted by rain, snow or fog. However, they are seldom used for
scene understanding due to the size and complexity of radar raw data and the
lack of annotated datasets. Fortunately, recent open-sourced datasets have
opened up research on classification, object detection and semantic
segmentation with raw radar signals using end-to-end trainable models. In this
work, we propose several novel architectures, and their associated losses,
which analyse multiple "views" of the range-angle-Doppler radar tensor to
segment it semantically. Experiments conducted on the recent CARRADA dataset
demonstrate that our best model outperforms alternative models, derived either
from the semantic segmentation of natural images or from radar scene
understanding, while requiring significantly fewer parameters. Both our code
and trained models will be released.
- Abstract(参考訳): エゴ車を取り巻くシーンを理解することは、アシストと自律運転の鍵となる。
現在では、悪天候下での性能が低下しているにもかかわらず、主にカメラとレーザースキャナを用いて行われる。
自動車用レーダーは、相対速度を含む周囲の物体の特性を測る低コストのアクティブセンサーであり、雨や雪、霧の影響を受けない重要な利点がある。
しかし、レーダーの生データのサイズと複雑さ、注釈付きデータセットがないため、シーン理解にはほとんど使われない。
幸いなことに、最近のオープンソースデータセットは、エンドツーエンドのトレーニング可能なモデルを使用して、生のレーダー信号による分類、オブジェクト検出、セマンティックセグメンテーションの研究を開始した。
そこで本研究では,数種類の新しいアーキテクチャとそれに伴う損失について検討し,それをセマンティクス的にセグメンテーションするために,レンジアングル・ドップラーレーダテンソルの複数の「ビュー」を分析する。
最近のCARRADAデータセットで行った実験では、我々の最良のモデルは、自然画像の意味的セグメンテーションやレーダーシーンの理解から派生した代替モデルよりも優れており、パラメータは大幅に少ない。
コードとトレーニングされたモデルの両方がリリースされます。
関連論文リスト
- Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - TransRadar: Adaptive-Directional Transformer for Real-Time Multi-View
Radar Semantic Segmentation [21.72892413572166]
本稿では,レーダデータの多入力融合を用いたレーダシーンのセマンティックセマンティックセマンティクスへの新しいアプローチを提案する。
提案手法であるTransRadarは,CARRADAとRADIalのデータセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-10-03T17:59:05Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - CarPatch: A Synthetic Benchmark for Radiance Field Evaluation on Vehicle
Components [77.33782775860028]
車両の新たな総合ベンチマークであるCarPatchを紹介する。
内在カメラパラメータと外在カメラパラメータを付加した画像のセットに加えて、各ビューに対して対応する深度マップとセマンティックセグメンテーションマスクが生成されている。
グローバルとパートベースのメトリクスは、いくつかの最先端技術を評価し、比較し、より良い特徴付けるために定義され、使われてきた。
論文 参考訳(メタデータ) (2023-07-24T11:59:07Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - RadarFormer: Lightweight and Accurate Real-Time Radar Object Detection
Model [13.214257841152033]
レーダー中心のデータセットは、レーダー知覚のためのディープラーニング技術の開発にはあまり注目されていない。
本稿では,視覚深層学習における最先端技術を活用したトランスフォーマーモデルRadarFormerを提案する。
また、チャネルチャープ時マージモジュールを導入し、精度を損なうことなく、モデルのサイズと複雑さを10倍以上に削減する。
論文 参考訳(メタデータ) (2023-04-17T17:07:35Z) - A recurrent CNN for online object detection on raw radar frames [7.074916574419171]
本研究では,オンラインレーダオブジェクト検出のための新しいCNNアーキテクチャを提案する。
本稿では,コンボリューションとConvLSTMを混合したエンドツーエンドのトレーニング可能なアーキテクチャを提案する。
我々のモデルは因果的であり、オブジェクトを検出するためにConvLSTMのメモリに符号化された過去の情報のみを必要とする。
論文 参考訳(メタデータ) (2022-12-21T16:36:36Z) - Deep Instance Segmentation with High-Resolution Automotive Radar [2.167586397005864]
本稿では,レーダ検出点を用いた2つの効率的な分割法を提案する。
1つは、PointNet++フレームワークを使用してエンドツーエンドのディープラーニング駆動方式で実装されている。
もう一つは、セマンティック情報を用いたレーダー検出点のクラスタリングに基づいている。
論文 参考訳(メタデータ) (2021-10-05T01:18:27Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - CARRADA Dataset: Camera and Automotive Radar with Range-Angle-Doppler
Annotations [0.0]
距離角-ドップラーアノテーションを用いた同期カメラとレーダ記録のデータセットであるCARRADAを紹介する。
また、データセットのアノテートに使用された半自動アノテーション手法と、レーダーセマンティックセグメンテーションベースラインを提案する。
論文 参考訳(メタデータ) (2020-05-04T13:14:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。