論文の概要: TransRadar: Adaptive-Directional Transformer for Real-Time Multi-View
Radar Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2310.02260v1
- Date: Tue, 3 Oct 2023 17:59:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 12:48:37.024433
- Title: TransRadar: Adaptive-Directional Transformer for Real-Time Multi-View
Radar Semantic Segmentation
- Title(参考訳): transradar:リアルタイムマルチビューレーダセマンティクスセグメンテーションのための適応方向トランスフォーマ
- Authors: Yahia Dalbah, Jean Lahoud, Hisham Cholakkal
- Abstract要約: 本稿では,レーダデータの多入力融合を用いたレーダシーンのセマンティックセマンティックセマンティクスへの新しいアプローチを提案する。
提案手法であるTransRadarは,CARRADAとRADIalのデータセット上で最先端の手法より優れている。
- 参考スコア(独自算出の注目度): 21.72892413572166
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Scene understanding plays an essential role in enabling autonomous driving
and maintaining high standards of performance and safety. To address this task,
cameras and laser scanners (LiDARs) have been the most commonly used sensors,
with radars being less popular. Despite that, radars remain low-cost,
information-dense, and fast-sensing techniques that are resistant to adverse
weather conditions. While multiple works have been previously presented for
radar-based scene semantic segmentation, the nature of the radar data still
poses a challenge due to the inherent noise and sparsity, as well as the
disproportionate foreground and background. In this work, we propose a novel
approach to the semantic segmentation of radar scenes using a multi-input
fusion of radar data through a novel architecture and loss functions that are
tailored to tackle the drawbacks of radar perception. Our novel architecture
includes an efficient attention block that adaptively captures important
feature information. Our method, TransRadar, outperforms state-of-the-art
methods on the CARRADA and RADIal datasets while having smaller model sizes.
https://github.com/YahiDar/TransRadar
- Abstract(参考訳): シーン理解は、自律運転を可能にし、高いパフォーマンスと安全性の標準を維持する上で重要な役割を果たす。
この課題に対処するため、カメラとレーザースキャナー(LiDAR)が最も一般的に使われているセンサーであり、レーダーは一般的ではない。
それでもレーダーは、悪天候に耐性のある低コスト、情報密度、高速センシング技術を維持している。
レーダに基づくシーンセマンティックセマンティックセグメンテーションについては、これまでも複数の研究がなされてきたが、レーダーデータの性質は、固有のノイズや空間性、不均質な前景や背景など、依然として課題となっている。
本研究では,レーダデータの多入力融合と,レーダ知覚の欠点に対処するために調整された損失関数を用いて,レーダシーンの意味的セグメンテーションを行う新しい手法を提案する。
我々の新しいアーキテクチャは、重要な特徴情報を適応的にキャプチャする効率的な注意ブロックを含んでいる。
提案手法であるTransRadarは,モデルサイズを小さくしながら,CARRADAおよびRADIalデータセット上で最先端の手法より優れている。
https://github.com/YahiDar/TransRadar
関連論文リスト
- Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - RadarFormer: Lightweight and Accurate Real-Time Radar Object Detection
Model [13.214257841152033]
レーダー中心のデータセットは、レーダー知覚のためのディープラーニング技術の開発にはあまり注目されていない。
本稿では,視覚深層学習における最先端技術を活用したトランスフォーマーモデルRadarFormerを提案する。
また、チャネルチャープ時マージモジュールを導入し、精度を損なうことなく、モデルのサイズと複雑さを10倍以上に削減する。
論文 参考訳(メタデータ) (2023-04-17T17:07:35Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - Multi-View Radar Semantic Segmentation [3.2093811507874768]
自動車用レーダーは、周囲の物体の特性を測定する安価なアクティブセンサーである。
レーダー生データのサイズと複雑さのため、シーン理解にはほとんど使われない。
我々は,複数の新しいアーキテクチャとそれに伴う損失を提案し,レンジアングル・ドップラーレーダテンソルの複数の"ビュー"を分析し,意味的にセグメンテーションする。
論文 参考訳(メタデータ) (2021-03-30T09:56:41Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - RSS-Net: Weakly-Supervised Multi-Class Semantic Segmentation with FMCW
Radar [26.56755178602111]
我々は、このタスクに使用される従来のセンサーよりも、より長い範囲で動作し、悪天候や照明条件に対してかなり堅牢なレーダーを提唱する。
RGBカメラやLiDARセンサーとレーダースキャンを関連付け,これまでに収集された最大の都市自治データセットを利用する。
本稿では,マルチチャンネル・レーダ・スキャン・インプットを用いて,短命でダイナミックなシーン・オブジェクトを扱うネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-02T11:40:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。