論文の概要: RSS-Net: Weakly-Supervised Multi-Class Semantic Segmentation with FMCW
Radar
- arxiv url: http://arxiv.org/abs/2004.03451v1
- Date: Thu, 2 Apr 2020 11:40:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 13:13:40.485489
- Title: RSS-Net: Weakly-Supervised Multi-Class Semantic Segmentation with FMCW
Radar
- Title(参考訳): rss-net:fmcw radarを用いたマルチクラスセマンティクスセグメンテーション
- Authors: Prannay Kaul, Daniele De Martini, Matthew Gadd, Paul Newman
- Abstract要約: 我々は、このタスクに使用される従来のセンサーよりも、より長い範囲で動作し、悪天候や照明条件に対してかなり堅牢なレーダーを提唱する。
RGBカメラやLiDARセンサーとレーダースキャンを関連付け,これまでに収集された最大の都市自治データセットを利用する。
本稿では,マルチチャンネル・レーダ・スキャン・インプットを用いて,短命でダイナミックなシーン・オブジェクトを扱うネットワークを提案する。
- 参考スコア(独自算出の注目度): 26.56755178602111
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents an efficient annotation procedure and an application
thereof to end-to-end, rich semantic segmentation of the sensed environment
using FMCW scanning radar. We advocate radar over the traditional sensors used
for this task as it operates at longer ranges and is substantially more robust
to adverse weather and illumination conditions. We avoid laborious manual
labelling by exploiting the largest radar-focused urban autonomy dataset
collected to date, correlating radar scans with RGB cameras and LiDAR sensors,
for which semantic segmentation is an already consolidated procedure. The
training procedure leverages a state-of-the-art natural image segmentation
system which is publicly available and as such, in contrast to previous
approaches, allows for the production of copious labels for the radar stream by
incorporating four camera and two LiDAR streams. Additionally, the losses are
computed taking into account labels to the radar sensor horizon by accumulating
LiDAR returns along a pose-chain ahead and behind of the current vehicle
position. Finally, we present the network with multi-channel radar scan inputs
in order to deal with ephemeral and dynamic scene objects.
- Abstract(参考訳): 本稿では,FMCWスキャニングレーダを用いた知覚環境のエンドツーエンド・リッチなセマンティックセマンティックセグメンテーションへの効率的なアノテーション手法とその応用について述べる。
我々は、より長い範囲で動作し、悪天候や照明条件に対して大幅に堅牢な従来のセンサーに対してレーダーを推奨する。
rgbカメラとlidarセンサーでレーダースキャンを関連付け、セマンティクスセグメンテーションをすでに統合した手順にすることで、これまで収集された最大のレーダー中心都市自治データセットを活用することで、手作業によるラベリングを回避する。
トレーニング手順では、最先端の自然画像セグメンテーションシステムを活用しており、従来のアプローチとは対照的に、4つのカメラと2つのlidarストリームを組み込むことで、レーダーストリーム用の高度なラベルを作成できる。
さらに、現在の車両位置の前後のポーズチェーンに沿ってライダーリターンを蓄積することにより、レーダセンサ地平線へのラベルを考慮した損失を算出する。
最後に,エフェメラル・ダイナミック・シーン・オブジェクトを扱うために,マルチチャネル・レーダ・スキャン入力をネットワークに導入する。
関連論文リスト
- Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - TransRadar: Adaptive-Directional Transformer for Real-Time Multi-View
Radar Semantic Segmentation [21.72892413572166]
本稿では,レーダデータの多入力融合を用いたレーダシーンのセマンティックセマンティックセマンティクスへの新しいアプローチを提案する。
提案手法であるTransRadarは,CARRADAとRADIalのデータセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-10-03T17:59:05Z) - RadarLCD: Learnable Radar-based Loop Closure Detection Pipeline [4.09225917049674]
本研究では,ループクロージャ検出に特化して設計された新しい教師付きディープラーニングパイプラインであるRadarLCDを紹介する。
RadarLCDは、事前訓練されたHERO(Hybrid Estimation Radar Odometry)モデルを活用することで、大きな貢献をしている。
この手法は、様々なFMCW Radarデータセットシーンで評価を行う。
論文 参考訳(メタデータ) (2023-09-13T17:10:23Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - Deep Radar Inverse Sensor Models for Dynamic Occupancy Grid Maps [0.0]
本稿では,レーダー検出から極性測定格子へのマッピングを学習するために,深層学習に基づく逆センサモデル(ISM)を提案する。
私たちのアプローチは、視野の限られたレーダーから極性スキームで1フレームの計測グリッドを学習する最初の方法です。
これにより、ネットワークの再トレーニングや360度センサのカバレッジの必要なしに、1つ以上のレーダーセンサーを柔軟に使用することが可能になります。
論文 参考訳(メタデータ) (2023-05-21T09:09:23Z) - Rethinking of Radar's Role: A Camera-Radar Dataset and Systematic
Annotator via Coordinate Alignment [38.24705460170415]
CRUWと呼ばれる新しいデータセットを体系的なアノテーションとパフォーマンス評価システムで提案する。
CRUWは、レーダーの無線周波数(RF)画像から3Dのオブジェクトを純粋に分類し、ローカライズすることを目指しています。
私たちの知る限り、CRUWは体系的なアノテーションと評価システムを備えた最初の公開大規模データセットです。
論文 参考訳(メタデータ) (2021-05-11T17:13:45Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - Radar Artifact Labeling Framework (RALF): Method for Plausible Radar
Detections in Datasets [2.5899040911480187]
粗いレーダ点雲のラベル付けのためのクロスセンサレーダアーチファクトラベルフレームワーク(RALF)を提案する。
RALFは、レーダーの生検出のための可視性ラベルを提供し、アーティファクトとターゲットを区別する。
半手動ラベル付き地上真理データセットの3.28cdot106$ポイントの誤差測定値を評価することにより,結果を検証する。
論文 参考訳(メタデータ) (2020-12-03T15:11:31Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。