論文の概要: Radar Tracker: Moving Instance Tracking in Sparse and Noisy Radar Point Clouds
- arxiv url: http://arxiv.org/abs/2507.03441v1
- Date: Fri, 04 Jul 2025 09:57:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.736475
- Title: Radar Tracker: Moving Instance Tracking in Sparse and Noisy Radar Point Clouds
- Title(参考訳): Radar Tracker: スパースとノイズの多いRadar Point Cloudにおけるインスタンス追跡の移動
- Authors: Matthias Zeller, Daniel Casado Herraez, Jens Behley, Michael Heidingsfeld, Cyrill Stachniss,
- Abstract要約: 我々は、シーン解釈を強化するために、スパースレーダポイント雲における移動インスタンス追跡に対処する。
本稿では,時間的オフセット予測を取り入れた学習型レーダトラッカーを提案する。
提案手法は,RadarScenesデータセットの移動インスタンス追跡ベンチマークの性能向上を示す。
- 参考スコア(独自算出の注目度): 25.36192517603375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robots and autonomous vehicles should be aware of what happens in their surroundings. The segmentation and tracking of moving objects are essential for reliable path planning, including collision avoidance. We investigate this estimation task for vehicles using radar sensing. We address moving instance tracking in sparse radar point clouds to enhance scene interpretation. We propose a learning-based radar tracker incorporating temporal offset predictions to enable direct center-based association and enhance segmentation performance by including additional motion cues. We implement attention-based tracking for sparse radar scans to include appearance features and enhance performance. The final association combines geometric and appearance features to overcome the limitations of center-based tracking to associate instances reliably. Our approach shows an improved performance on the moving instance tracking benchmark of the RadarScenes dataset compared to the current state of the art.
- Abstract(参考訳): ロボットと自動運転車は、周囲で何が起こっているかを認識しなければならない。
移動物体のセグメンテーションと追跡は衝突回避を含む信頼性の高い経路計画に不可欠である。
レーダセンシングを用いた車両のこの推定課題について検討する。
我々は、シーン解釈を強化するために、スパースレーダポイント雲における移動インスタンス追跡に対処する。
本研究では,時間的オフセット予測を取り入れた学習型レーダトラッカを提案する。
視認性や性能向上のために,スパルスレーダスキャンの注意に基づくトラッキングを実装した。
最後のアソシエーションは、幾何学的特徴と外観的特徴を組み合わせることで、中央ベースのトラッキングの限界を克服し、インスタンスを確実に関連付ける。
提案手法では,RadarScenesデータセットの移動インスタンス追跡ベンチマークのパフォーマンスが,現在の最先端モデルと比較して向上したことを示す。
関連論文リスト
- Radar Velocity Transformer: Single-scan Moving Object Segmentation in Noisy Radar Point Clouds [23.59980120024823]
本稿では,ノイズの多いレーダ点雲における物体分割の移動問題に取り組む。
スパースレーダスキャンにおける単一走査移動物体セグメンテーションを高精度に行うためのトランスフォーマーに基づく新しい手法を開発した。
我々のネットワークはセンサのフレームレートよりも高速に動作し、単一走査レーダデータのみを用いてより優れたセグメンテーション結果を示す。
論文 参考訳(メタデータ) (2025-07-04T10:39:13Z) - Multi-Object Tracking based on Imaging Radar 3D Object Detection [0.13499500088995461]
本稿では,古典的追跡アルゴリズムを用いて,周囲の交通参加者を追跡する手法を提案する。
学習に基づく物体検出器はライダーとカメラのデータに適切に対応し、学習に基づく物体検出器は標準のレーダーデータ入力により劣っていることが示されている。
レーダセンサ技術の改良により、レーダの物体検出性能は大幅に改善されたが、レーダ点雲の広さによりライダーセンサに制限されている。
追跡アルゴリズムは、一貫したトラックを生成しながら、限られた検出品質を克服しなければならない。
論文 参考訳(メタデータ) (2024-06-03T05:46:23Z) - Radar Instance Transformer: Reliable Moving Instance Segmentation in
Sparse Radar Point Clouds [24.78323023852578]
LiDARとカメラはシーンの解釈を強化するが、悪天候下では直接の動作情報や顔の制限は提供しない。
レーダーセンサーはこれらの制限を克服し、ドップラー速度を提供し、動的物体の直接情報を提供する。
私たちのRadar Instance Transformerは、ニューラルネットワークを介して集約されたスキャンを渡すことなく、現在のレーダースキャンを時間情報で強化します。
論文 参考訳(メタデータ) (2023-09-28T13:37:30Z) - RaTrack: Moving Object Detection and Tracking with 4D Radar Point Cloud [10.593320435411714]
レーダベースのトラッキングに適した革新的なソリューションであるRaTrackを紹介します。
本手法は,動き推定モジュールによって強化された動き分割とクラスタリングに焦点を当てる。
RaTrackは移動物体の追跡精度が優れており、最先端の技術をはるかに上回っている。
論文 参考訳(メタデータ) (2023-09-18T13:02:29Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - AiATrack: Attention in Attention for Transformer Visual Tracking [89.94386868729332]
トランスフォーマートラッカーは近年,注目機構が重要な役割を担っている,目覚ましい進歩を遂げている。
我々は,すべての相関ベクトル間のコンセンサスを求めることにより,適切な相関性を高め,誤相関を抑制する注意モジュール(AiA)を提案する。
我々のAiAモジュールは自己認識ブロックとクロスアテンションブロックの両方に容易に適用でき、視覚追跡のための特徴集約と情報伝達を容易にする。
論文 参考訳(メタデータ) (2022-07-20T00:44:03Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。