論文の概要: Radar Instance Transformer: Reliable Moving Instance Segmentation in
Sparse Radar Point Clouds
- arxiv url: http://arxiv.org/abs/2309.16435v1
- Date: Thu, 28 Sep 2023 13:37:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 14:18:46.265920
- Title: Radar Instance Transformer: Reliable Moving Instance Segmentation in
Sparse Radar Point Clouds
- Title(参考訳): Radar Instance Transformer: Sparse Radar Point Cloudsにおける信頼性の高い移動インスタンスセグメンテーション
- Authors: Matthias Zeller and Vardeep S. Sandhu and Benedikt Mersch and Jens
Behley and Michael Heidingsfeld and Cyrill Stachniss
- Abstract要約: LiDARとカメラはシーンの解釈を強化するが、悪天候下では直接の動作情報や顔の制限は提供しない。
レーダーセンサーはこれらの制限を克服し、ドップラー速度を提供し、動的物体の直接情報を提供する。
私たちのRadar Instance Transformerは、ニューラルネットワークを介して集約されたスキャンを渡すことなく、現在のレーダースキャンを時間情報で強化します。
- 参考スコア(独自算出の注目度): 24.78323023852578
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The perception of moving objects is crucial for autonomous robots performing
collision avoidance in dynamic environments. LiDARs and cameras tremendously
enhance scene interpretation but do not provide direct motion information and
face limitations under adverse weather. Radar sensors overcome these
limitations and provide Doppler velocities, delivering direct information on
dynamic objects. In this paper, we address the problem of moving instance
segmentation in radar point clouds to enhance scene interpretation for
safety-critical tasks. Our Radar Instance Transformer enriches the current
radar scan with temporal information without passing aggregated scans through a
neural network. We propose a full-resolution backbone to prevent information
loss in sparse point cloud processing. Our instance transformer head
incorporates essential information to enhance segmentation but also enables
reliable, class-agnostic instance assignments. In sum, our approach shows
superior performance on the new moving instance segmentation benchmarks,
including diverse environments, and provides model-agnostic modules to enhance
scene interpretation. The benchmark is based on the RadarScenes dataset and
will be made available upon acceptance.
- Abstract(参考訳): 移動物体の知覚は、動的環境下で衝突回避を行う自律ロボットにとって不可欠である。
LiDARやカメラは、シーンの解釈を著しく強化するが、直接の動作情報や、悪天候下での対面制限は提供しない。
レーダーセンサーはこれらの制限を克服し、ドップラー速度を提供し、動的物体の直接情報を提供する。
本稿では,安全クリティカルなタスクのシーン解釈を強化するため,レーダーポイント雲におけるインスタンス分割の移動問題に対処する。
私たちのRadar Instance Transformerは、ニューラルネットワークを介して集約されたスキャンを渡すことなく、現在のレーダースキャンを時間情報で強化します。
スパースポイントクラウド処理における情報損失を防止するためのバックボーンを提案する。
インスタンストランスフォーマーヘッドにはセグメンテーションを強化するために不可欠な情報が含まれていますが、信頼性があり、クラスに依存しないインスタンス割り当ても可能です。
まとめると、このアプローチは、多様な環境を含む新しい移動インスタンスセグメンテーションベンチマークにおいて優れたパフォーマンスを示し、シーン解釈を強化するモデル非依存モジュールを提供する。
ベンチマークはradarscenesデータセットに基づいており、受け入れられると利用可能になる。
関連論文リスト
- Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Leveraging Self-Supervised Instance Contrastive Learning for Radar
Object Detection [7.728838099011661]
本稿では,レーダ物体検出装置を事前訓練する際,RCLを例に紹介する。
我々は、より少ないデータで学習するために、物体検出器のバックボーン、頭、首を事前訓練することを目指している。
論文 参考訳(メタデータ) (2024-02-13T12:53:33Z) - TransRadar: Adaptive-Directional Transformer for Real-Time Multi-View
Radar Semantic Segmentation [21.72892413572166]
本稿では,レーダデータの多入力融合を用いたレーダシーンのセマンティックセマンティックセマンティクスへの新しいアプローチを提案する。
提案手法であるTransRadarは,CARRADAとRADIalのデータセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-10-03T17:59:05Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [90.66285408745453]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において困難である。
ほとんどの最先端の手法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - Gaussian Radar Transformer for Semantic Segmentation in Noisy Radar Data [33.457104508061015]
シーン理解は、将来の状態予測、衝突回避、経路計画を行うために、動的環境における自律ロボットにとって不可欠である。
カメラとLiDARの認識は近年大きく進歩したが、悪天候下では限界に直面した。
マルチモーダルセンサースイートの可能性を最大限に活用するためには、レーダーセンサーは安全上の重要なタスクに不可欠であり、現在ほとんどの新しい車両に導入されている。
論文 参考訳(メタデータ) (2022-12-07T15:05:03Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - Multi-View Radar Semantic Segmentation [3.2093811507874768]
自動車用レーダーは、周囲の物体の特性を測定する安価なアクティブセンサーである。
レーダー生データのサイズと複雑さのため、シーン理解にはほとんど使われない。
我々は,複数の新しいアーキテクチャとそれに伴う損失を提案し,レンジアングル・ドップラーレーダテンソルの複数の"ビュー"を分析し,意味的にセグメンテーションする。
論文 参考訳(メタデータ) (2021-03-30T09:56:41Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。