論文の概要: Radar Velocity Transformer: Single-scan Moving Object Segmentation in Noisy Radar Point Clouds
- arxiv url: http://arxiv.org/abs/2507.03463v1
- Date: Fri, 04 Jul 2025 10:39:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.743154
- Title: Radar Velocity Transformer: Single-scan Moving Object Segmentation in Noisy Radar Point Clouds
- Title(参考訳): レーダ速度変換器:ノイズレーダ点雲における単走査移動物体セグメンテーション
- Authors: Matthias Zeller, Vardeep S. Sandhu, Benedikt Mersch, Jens Behley, Michael Heidingsfeld, Cyrill Stachniss,
- Abstract要約: 本稿では,ノイズの多いレーダ点雲における物体分割の移動問題に取り組む。
スパースレーダスキャンにおける単一走査移動物体セグメンテーションを高精度に行うためのトランスフォーマーに基づく新しい手法を開発した。
我々のネットワークはセンサのフレームレートよりも高速に動作し、単一走査レーダデータのみを用いてより優れたセグメンテーション結果を示す。
- 参考スコア(独自算出の注目度): 23.59980120024823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The awareness about moving objects in the surroundings of a self-driving vehicle is essential for safe and reliable autonomous navigation. The interpretation of LiDAR and camera data achieves exceptional results but typically requires to accumulate and process temporal sequences of data in order to extract motion information. In contrast, radar sensors, which are already installed in most recent vehicles, can overcome this limitation as they directly provide the Doppler velocity of the detections and, hence incorporate instantaneous motion information within a single measurement. % In this paper, we tackle the problem of moving object segmentation in noisy radar point clouds. We also consider differentiating parked from moving cars, to enhance scene understanding. Instead of exploiting temporal dependencies to identify moving objects, we develop a novel transformer-based approach to perform single-scan moving object segmentation in sparse radar scans accurately. The key to our Radar Velocity Transformer is to incorporate the valuable velocity information throughout each module of the network, thereby enabling the precise segmentation of moving and non-moving objects. Additionally, we propose a transformer-based upsampling, which enhances the performance by adaptively combining information and overcoming the limitation of interpolation of sparse point clouds. Finally, we create a new radar moving object segmentation benchmark based on the RadarScenes dataset and compare our approach to other state-of-the-art methods. Our network runs faster than the frame rate of the sensor and shows superior segmentation results using only single-scan radar data.
- Abstract(参考訳): 自動運転車の周囲に物体を移動させることに対する認識は、安全で信頼性の高い自律走行に不可欠である。
LiDARとカメラデータの解釈は例外的な結果をもたらすが、通常、動き情報を抽出するためには、データの時間的シーケンスを蓄積して処理する必要がある。
対照的に、最近の車両にはすでに設置されているレーダーセンサーは、検出のドップラー速度を直接提供するため、この制限を克服することができる。
本稿では,ノイズの多いレーダ点雲における物体のセグメンテーションの移動問題に対処する。
また,駐車場と移動車との差別化も検討し,景観理解の向上を図っている。
移動物体を特定するために時間的依存関係を利用する代わりに、スパースレーダスキャンで単一走査移動物体セグメンテーションを正確に行うためのトランスフォーマーベースの新しいアプローチを開発した。
レーダ速度変換器の鍵となるのは、ネットワークの各モジュールに価値ある速度情報を組み込むことで、移動物体と非移動物体の正確なセグメンテーションを可能にする。
さらに,情報を適応的に結合し,スパース点雲の補間限界を克服することで性能を向上させるトランスフォーマーを用いたアップサンプリングを提案する。
最後に、RadarScenesデータセットに基づいた新しいレーダ移動オブジェクトセグメンテーションベンチマークを作成し、我々のアプローチを他の最先端手法と比較する。
我々のネットワークはセンサのフレームレートよりも高速に動作し、単一走査レーダデータのみを用いてより優れたセグメンテーション結果を示す。
関連論文リスト
- Radar Tracker: Moving Instance Tracking in Sparse and Noisy Radar Point Clouds [25.36192517603375]
我々は、シーン解釈を強化するために、スパースレーダポイント雲における移動インスタンス追跡に対処する。
本稿では,時間的オフセット予測を取り入れた学習型レーダトラッカーを提案する。
提案手法は,RadarScenesデータセットの移動インスタンス追跡ベンチマークの性能向上を示す。
論文 参考訳(メタデータ) (2025-07-04T09:57:28Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - TransRadar: Adaptive-Directional Transformer for Real-Time Multi-View
Radar Semantic Segmentation [21.72892413572166]
本稿では,レーダデータの多入力融合を用いたレーダシーンのセマンティックセマンティックセマンティクスへの新しいアプローチを提案する。
提案手法であるTransRadarは,CARRADAとRADIalのデータセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-10-03T17:59:05Z) - Radar Instance Transformer: Reliable Moving Instance Segmentation in
Sparse Radar Point Clouds [24.78323023852578]
LiDARとカメラはシーンの解釈を強化するが、悪天候下では直接の動作情報や顔の制限は提供しない。
レーダーセンサーはこれらの制限を克服し、ドップラー速度を提供し、動的物体の直接情報を提供する。
私たちのRadar Instance Transformerは、ニューラルネットワークを介して集約されたスキャンを渡すことなく、現在のレーダースキャンを時間情報で強化します。
論文 参考訳(メタデータ) (2023-09-28T13:37:30Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - Gaussian Radar Transformer for Semantic Segmentation in Noisy Radar Data [33.457104508061015]
シーン理解は、将来の状態予測、衝突回避、経路計画を行うために、動的環境における自律ロボットにとって不可欠である。
カメラとLiDARの認識は近年大きく進歩したが、悪天候下では限界に直面した。
マルチモーダルセンサースイートの可能性を最大限に活用するためには、レーダーセンサーは安全上の重要なタスクに不可欠であり、現在ほとんどの新しい車両に導入されている。
論文 参考訳(メタデータ) (2022-12-07T15:05:03Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。