論文の概要: Gaussian Radar Transformer for Semantic Segmentation in Noisy Radar Data
- arxiv url: http://arxiv.org/abs/2212.03690v1
- Date: Wed, 7 Dec 2022 15:05:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 17:01:31.007214
- Title: Gaussian Radar Transformer for Semantic Segmentation in Noisy Radar Data
- Title(参考訳): 雑音レーダデータにおける意味セグメンテーションのためのガウスレーダトランスフォーマ
- Authors: Matthias Zeller and Jens Behley and Michael Heidingsfeld and Cyrill
Stachniss
- Abstract要約: シーン理解は、将来の状態予測、衝突回避、経路計画を行うために、動的環境における自律ロボットにとって不可欠である。
カメラとLiDARの認識は近年大きく進歩したが、悪天候下では限界に直面した。
マルチモーダルセンサースイートの可能性を最大限に活用するためには、レーダーセンサーは安全上の重要なタスクに不可欠であり、現在ほとんどの新しい車両に導入されている。
- 参考スコア(独自算出の注目度): 33.457104508061015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scene understanding is crucial for autonomous robots in dynamic environments
for making future state predictions, avoiding collisions, and path planning.
Camera and LiDAR perception made tremendous progress in recent years, but face
limitations under adverse weather conditions. To leverage the full potential of
multi-modal sensor suites, radar sensors are essential for safety critical
tasks and are already installed in most new vehicles today. In this paper, we
address the problem of semantic segmentation of moving objects in radar point
clouds to enhance the perception of the environment with another sensor
modality. Instead of aggregating multiple scans to densify the point clouds, we
propose a novel approach based on the self-attention mechanism to accurately
perform sparse, single-scan segmentation. Our approach, called Gaussian Radar
Transformer, includes the newly introduced Gaussian transformer layer, which
replaces the softmax normalization by a Gaussian function to decouple the
contribution of individual points. To tackle the challenge of the transformer
to capture long-range dependencies, we propose our attentive up- and
downsampling modules to enlarge the receptive field and capture strong spatial
relations. We compare our approach to other state-of-the-art methods on the
RadarScenes data set and show superior segmentation quality in diverse
environments, even without exploiting temporal information.
- Abstract(参考訳): シーン理解は、将来の状態予測、衝突回避、経路計画のための動的環境における自律ロボットにとって不可欠である。
カメラとLiDARは近年大きく進歩したが、悪天候下では限界に直面した。
マルチモーダルセンサーの可能性を最大限に活用するために、レーダーセンサーは安全上重要なタスクに必須であり、現在ほとんどの新車に搭載されている。
本稿では,レーダーポイント雲内の移動物体の意味セグメンテーションの問題に対処し,他のセンサモダリティを用いて環境の知覚を向上させる。
ポイントクラウドを高密度化するために複数のスキャンを集約する代わりに、スパースな単一スキャンセグメンテーションを正確に実行するセルフアテンションメカニズムに基づく新しいアプローチを提案する。
ガウス型レーダトランスフォーマーと呼ばれるこの手法は,新たに導入されたガウス型トランスフォーマー層を含み,ソフトマックス正規化をガウス関数に置き換え,個々の点の寄与を分離する。
長距離依存を捉えるトランスフォーマの課題に取り組むため,我々は受容場を拡大し,強い空間関係を捉えるための注意深いアップ・アンド・ダウンサンプリングモジュールを提案する。
我々はRadarScenesデータセットの他の最先端手法と比較し、時間的情報を活用することなく、多様な環境において優れたセグメンテーション品質を示す。
関連論文リスト
- SparseRadNet: Sparse Perception Neural Network on Subsampled Radar Data [5.344444942640663]
レーダー生データは、しばしば過剰なノイズを含むが、レーダー点雲は限られた情報しか保持しない。
本稿では,適応的なサブサンプリング手法と,空間パターンを利用したネットワークアーキテクチャを提案する。
RADIalデータセットの実験により,SparseRadNetはオブジェクト検出における最先端(SOTA)性能を超え,自由空間セグメンテーションにおけるSOTA精度に近づいた。
論文 参考訳(メタデータ) (2024-06-15T11:26:10Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - TransRadar: Adaptive-Directional Transformer for Real-Time Multi-View
Radar Semantic Segmentation [21.72892413572166]
本稿では,レーダデータの多入力融合を用いたレーダシーンのセマンティックセマンティックセマンティクスへの新しいアプローチを提案する。
提案手法であるTransRadarは,CARRADAとRADIalのデータセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-10-03T17:59:05Z) - Radar Instance Transformer: Reliable Moving Instance Segmentation in
Sparse Radar Point Clouds [24.78323023852578]
LiDARとカメラはシーンの解釈を強化するが、悪天候下では直接の動作情報や顔の制限は提供しない。
レーダーセンサーはこれらの制限を克服し、ドップラー速度を提供し、動的物体の直接情報を提供する。
私たちのRadar Instance Transformerは、ニューラルネットワークを介して集約されたスキャンを渡すことなく、現在のレーダースキャンを時間情報で強化します。
論文 参考訳(メタデータ) (2023-09-28T13:37:30Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - Multi-View Radar Semantic Segmentation [3.2093811507874768]
自動車用レーダーは、周囲の物体の特性を測定する安価なアクティブセンサーである。
レーダー生データのサイズと複雑さのため、シーン理解にはほとんど使われない。
我々は,複数の新しいアーキテクチャとそれに伴う損失を提案し,レンジアングル・ドップラーレーダテンソルの複数の"ビュー"を分析し,意味的にセグメンテーションする。
論文 参考訳(メタデータ) (2021-03-30T09:56:41Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - RSS-Net: Weakly-Supervised Multi-Class Semantic Segmentation with FMCW
Radar [26.56755178602111]
我々は、このタスクに使用される従来のセンサーよりも、より長い範囲で動作し、悪天候や照明条件に対してかなり堅牢なレーダーを提唱する。
RGBカメラやLiDARセンサーとレーダースキャンを関連付け,これまでに収集された最大の都市自治データセットを利用する。
本稿では,マルチチャンネル・レーダ・スキャン・インプットを用いて,短命でダイナミックなシーン・オブジェクトを扱うネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-02T11:40:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。