論文の概要: Self-Supervised Moving Object Segmentation of Sparse and Noisy Radar Point Clouds
- arxiv url: http://arxiv.org/abs/2511.02395v1
- Date: Tue, 04 Nov 2025 09:21:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.869219
- Title: Self-Supervised Moving Object Segmentation of Sparse and Noisy Radar Point Clouds
- Title(参考訳): スパースおよびノイズレーダ点雲の自己監督型移動物体分割
- Authors: Leon Schwarzer, Matthias Zeller, Daniel Casado Herraez, Simon Dierl, Michael Heidingsfeld, Cyrill Stachniss,
- Abstract要約: オブジェクトのセグメンテーションは、自動運転車のような安全で信頼性の高い自律型モバイルシステムにとって重要なタスクだ。
レーダーポイントクラウドは、しばしばスパースでノイズが多く、教師あり学習に使用するデータアノテーションを作成する。
本稿では,レーダデータの動作認識表現を生成するためにネットワークを事前訓練するために,動的点除去に基づくクラスタリファインメントを用いたクラスタリングに基づく新しいコントラスト損失関数を提案する。
- 参考スコア(独自算出の注目度): 17.737940705639573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Moving object segmentation is a crucial task for safe and reliable autonomous mobile systems like self-driving cars, improving the reliability and robustness of subsequent tasks like SLAM or path planning. While the segmentation of camera or LiDAR data is widely researched and achieves great results, it often introduces an increased latency by requiring the accumulation of temporal sequences to gain the necessary temporal context. Radar sensors overcome this problem with their ability to provide a direct measurement of a point's Doppler velocity, which can be exploited for single-scan moving object segmentation. However, radar point clouds are often sparse and noisy, making data annotation for use in supervised learning very tedious, time-consuming, and cost-intensive. To overcome this problem, we address the task of self-supervised moving object segmentation of sparse and noisy radar point clouds. We follow a two-step approach of contrastive self-supervised representation learning with subsequent supervised fine-tuning using limited amounts of annotated data. We propose a novel clustering-based contrastive loss function with cluster refinement based on dynamic points removal to pretrain the network to produce motion-aware representations of the radar data. Our method improves label efficiency after fine-tuning, effectively boosting state-of-the-art performance by self-supervised pretraining.
- Abstract(参考訳): オブジェクトセグメンテーションは、自動運転車のような安全で信頼性の高いモバイルシステムにとって重要なタスクであり、SLAMやパスプランニングといったその後のタスクの信頼性と堅牢性を改善する。
カメラやLiDARデータのセグメンテーションが広く研究され、大きな結果が得られたが、必要な時間的コンテキストを得るためには、時間的シーケンスの蓄積を必要とするため、レイテンシが増大することが多い。
レーダセンサーは点のドップラー速度を直接測定する能力によってこの問題を克服し、単一走査移動物体セグメンテーションに利用することができる。
しかし、レーダーポイントの雲は希少でノイズが多いため、教師あり学習に使用するデータアノテーションは非常に退屈で、時間がかかり、コストがかかる。
この問題を克服するために,スパースおよびノイズの多いレーダポイント雲の自己教師型移動物体セグメンテーションの課題に対処する。
アノテーション付きデータを用いた教師付き微調整によるコントラスト型自己教師型表現学習の2段階のアプローチを追究する。
本稿では,レーダデータの動作認識表現を生成するためにネットワークを事前訓練するために,動的点除去に基づくクラスタリファインメントを用いたクラスタリングに基づく新しいコントラスト損失関数を提案する。
本手法は, 微調整後のラベル効率を向上し, 自己教師付き事前学習による最先端性能を効果的に向上させる。
関連論文リスト
- Radar Velocity Transformer: Single-scan Moving Object Segmentation in Noisy Radar Point Clouds [23.59980120024823]
本稿では,ノイズの多いレーダ点雲における物体分割の移動問題に取り組む。
スパースレーダスキャンにおける単一走査移動物体セグメンテーションを高精度に行うためのトランスフォーマーに基づく新しい手法を開発した。
我々のネットワークはセンサのフレームレートよりも高速に動作し、単一走査レーダデータのみを用いてより優れたセグメンテーション結果を示す。
論文 参考訳(メタデータ) (2025-07-04T10:39:13Z) - Radar Tracker: Moving Instance Tracking in Sparse and Noisy Radar Point Clouds [25.36192517603375]
我々は、シーン解釈を強化するために、スパースレーダポイント雲における移動インスタンス追跡に対処する。
本稿では,時間的オフセット予測を取り入れた学習型レーダトラッカーを提案する。
提案手法は,RadarScenesデータセットの移動インスタンス追跡ベンチマークの性能向上を示す。
論文 参考訳(メタデータ) (2025-07-04T09:57:28Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Self-Supervised Class-Agnostic Motion Prediction with Spatial and Temporal Consistency Regularizations [53.797896854533384]
クラスに依存しない動き予測法は点雲全体の動きを直接予測する。
既存のほとんどのメソッドは、完全に教師付き学習に依存しているが、ポイントクラウドデータの手作業によるラベル付けは、手間と時間を要する。
3つの簡単な空間的・時間的正則化損失を導入し,自己指導型学習プロセスの効率化を図る。
論文 参考訳(メタデータ) (2024-03-20T02:58:45Z) - Leveraging Self-Supervised Instance Contrastive Learning for Radar
Object Detection [7.728838099011661]
本稿では,レーダ物体検出装置を事前訓練する際,RCLを例に紹介する。
我々は、より少ないデータで学習するために、物体検出器のバックボーン、頭、首を事前訓練することを目指している。
論文 参考訳(メタデータ) (2024-02-13T12:53:33Z) - Radar Instance Transformer: Reliable Moving Instance Segmentation in
Sparse Radar Point Clouds [24.78323023852578]
LiDARとカメラはシーンの解釈を強化するが、悪天候下では直接の動作情報や顔の制限は提供しない。
レーダーセンサーはこれらの制限を克服し、ドップラー速度を提供し、動的物体の直接情報を提供する。
私たちのRadar Instance Transformerは、ニューラルネットワークを介して集約されたスキャンを渡すことなく、現在のレーダースキャンを時間情報で強化します。
論文 参考訳(メタデータ) (2023-09-28T13:37:30Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - Streaming Object Detection for 3-D Point Clouds [29.465873948076766]
LiDARは、多くの既存の知覚システムに通知する顕著な感覚モダリティを提供する。
ポイントクラウドデータに基づく知覚システムのレイテンシは、完全なローテーションスキャンの時間量によって支配される。
我々は、LiDARデータをそのネイティブストリーミング定式化で操作することで、自動運転オブジェクト検出にいくつかの利点があることを示す。
論文 参考訳(メタデータ) (2020-05-04T21:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。