論文の概要: Temporal Overlapping Prediction: A Self-supervised Pre-training Method for LiDAR Moving Object Segmentation
- arxiv url: http://arxiv.org/abs/2503.07167v1
- Date: Mon, 10 Mar 2025 10:44:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:46:01.032850
- Title: Temporal Overlapping Prediction: A Self-supervised Pre-training Method for LiDAR Moving Object Segmentation
- Title(参考訳): 時間重なり予測:LiDAR移動物体セグメンテーションのための自己教師付き事前学習法
- Authors: Ziliang Miao, Runjian Chen, Yixi Cai, Buwei He, Wenquan Zhao, Wenqi Shao, Bo Zhang, Fu Zhang,
- Abstract要約: LiDARポイントクラウド上でのオブジェクトセグメンテーション(MOS)の移動は、自動運転車のような自律システムにとって不可欠である。
自己教師付き事前学習法であるtextbfTemporal textbfOverlapping textbfPtemporalrediction (textbfTOP)を提案する。
- 参考スコア(独自算出の注目度): 17.089686769826233
- License:
- Abstract: Moving object segmentation (MOS) on LiDAR point clouds is crucial for autonomous systems like self-driving vehicles. Previous supervised approaches rely heavily on costly manual annotations, while LiDAR sequences naturally capture temporal motion cues that can be leveraged for self-supervised learning. In this paper, we propose \textbf{T}emporal \textbf{O}verlapping \textbf{P}rediction (\textbf{TOP}), a self-supervised pre-training method that alleviate the labeling burden for MOS. \textbf{TOP} explores the temporal overlapping points that commonly observed by current and adjacent scans, and learns spatiotemporal representations by predicting the occupancy states of temporal overlapping points. Moreover, we utilize current occupancy reconstruction as an auxiliary pre-training objective, which enhances the current structural awareness of the model. We conduct extensive experiments and observe that the conventional metric Intersection-over-Union (IoU) shows strong bias to objects with more scanned points, which might neglect small or distant objects. To compensate for this bias, we introduce an additional metric called $\text{mIoU}_{\text{obj}}$ to evaluate object-level performance. Experiments on nuScenes and SemanticKITTI show that \textbf{TOP} outperforms both supervised training-from-scratch baseline and other self-supervised pre-training baselines by up to 28.77\% relative improvement, demonstrating strong transferability across LiDAR setups and generalization to other tasks. Code and pre-trained models will be publicly available upon publication.
- Abstract(参考訳): LiDARポイントクラウド上でのオブジェクトセグメンテーション(MOS)の移動は、自動運転車のような自律システムにとって不可欠である。
従来の教師付きアプローチはコストのかかる手作業によるアノテーションに大きく依存していたが、LiDARシーケンスは自然に、自己教師付き学習に活用できる時間的動きの手がかりをキャプチャする。
本稿では,MOS のラベル付け負担を軽減する自己教師付き事前学習手法である \textbf{T}emporal \textbf{O}verlapping \textbf{P}rediction (\textbf{TOP}) を提案する。
textbf{TOP} は、現在および隣接するスキャンでよく見られる時間重なり合う点を探索し、時間重なり合う点の占有状態を予測して時空間表現を学ぶ。
さらに, モデルの構造的意識を高めるために, 現在の占領再建を補助的事前学習の目的として活用する。
IoU(Intersection-over-Union)は、よりスキャンされた点を持つ物体に対して強い偏りを示し、小さな物体や遠く離れた物体を無視する可能性がある。
このバイアスを補うために、オブジェクトレベルのパフォーマンスを評価するために、$\text{mIoU}_{\text{obj}}$というメトリクスを導入します。
nuScenes と SemanticKITTI の実験では、 \textbf{TOP} は教師付きトレーニングベースラインと他の教師付きトレーニングベースラインの両方を最大 28.77 % 改善し、LiDAR セットアップ間の強い転送可能性を示し、他のタスクへの一般化を実証している。
コードおよび事前訓練されたモデルは、公開時に公開される。
関連論文リスト
- UnO: Unsupervised Occupancy Fields for Perception and Forecasting [33.205064287409094]
監督されたアプローチは、アノテートされたオブジェクトラベルを利用して世界のモデルを学ぶ。
我々は,LiDARデータから連続した4次元占有領域を自己監督して知覚し,予測することを学ぶ。
この教師なしの世界モデルは、タスクに簡単かつ効果的に転送できる。
論文 参考訳(メタデータ) (2024-06-12T23:22:23Z) - Enhancing End-to-End Autonomous Driving with Latent World Model [78.22157677787239]
本稿では,LAW(Latent World Model)を用いたエンドツーエンド運転のための自己教師型学習手法を提案する。
LAWは、現在の特徴とエゴ軌道に基づいて将来のシーン機能を予測する。
この自己監督タスクは、知覚のない、知覚に基づくフレームワークにシームレスに統合することができる。
論文 参考訳(メタデータ) (2024-06-12T17:59:21Z) - Self-Supervised Class-Agnostic Motion Prediction with Spatial and Temporal Consistency Regularizations [53.797896854533384]
クラスに依存しない動き予測法は点雲全体の動きを直接予測する。
既存のほとんどのメソッドは、完全に教師付き学習に依存しているが、ポイントクラウドデータの手作業によるラベル付けは、手間と時間を要する。
3つの簡単な空間的・時間的正則化損失を導入し,自己指導型学習プロセスの効率化を図る。
論文 参考訳(メタデータ) (2024-03-20T02:58:45Z) - Self-Supervised Multi-Object Tracking For Autonomous Driving From
Consistency Across Timescales [53.55369862746357]
自己管理型マルチオブジェクトトラッカーは、生のドメイン固有データから学習できるという大きな可能性を秘めている。
しかし、その再識別精度は、監督対象よりも低い。
本稿では,複数の連続フレームから再同定特徴を自己教師付きで学習できる学習目標を提案する。
論文 参考訳(メタデータ) (2023-04-25T20:47:29Z) - ContrastMotion: Self-supervised Scene Motion Learning for Large-Scale
LiDAR Point Clouds [21.6511040107249]
BEV表現を用いたLiDARに基づく自律走行のための新しい自律走行推定器を提案する。
連続するフレームにおける柱間の特徴レベルの整合性によるシーンの動きを予測し,ダイナミックなシーンにおけるノイズポイントや視点変化点雲の影響を解消する。
論文 参考訳(メタデータ) (2023-04-25T05:46:24Z) - Self-Supervised Representation Learning from Temporal Ordering of
Automated Driving Sequences [49.91741677556553]
本研究では、認識タスクのための地域レベルの特徴表現を事前学習するための時間順述前文タスクであるTempOを提案する。
我々は各フレームを、オブジェクト検出やトラッキングシステムにとって自然な表現である、未順序な特徴ベクトルのセットで埋め込む。
BDD100K、nu Images、MOT17データセットの大規模な評価は、私たちのTempO事前学習アプローチがシングルフレームの自己教師型学習方法よりも優れていることを示している。
論文 参考訳(メタデータ) (2023-02-17T18:18:27Z) - Bootstrap Motion Forecasting With Self-Consistent Constraints [52.88100002373369]
自己整合性制約を用いた動き予測をブートストラップする新しい枠組みを提案する。
運動予測タスクは、過去の空間的・時間的情報を組み込むことで、車両の将来の軌跡を予測することを目的としている。
提案手法は,既存手法の予測性能を常に向上することを示す。
論文 参考訳(メタデータ) (2022-04-12T14:59:48Z) - Self-Supervised Learning for Semi-Supervised Temporal Action Proposal [42.6254639252739]
SSTAP(Self-supervised Semi-supervised Temporal Action Proposal)フレームワークの設計を行います。
SSTAPは2つの重要な分岐、すなわち時間対応半監督枝と関係対応自監督枝を含んでいる。
提案されたSSTAPをTHUMOS14およびActivityNet v1.3データセット上で幅広く評価する。
論文 参考訳(メタデータ) (2021-04-07T16:03:25Z) - Self-Supervision by Prediction for Object Discovery in Videos [62.87145010885044]
本稿では,この予測タスクを自己監督として利用し,画像シーケンス表現のための新しいオブジェクト中心モデルを構築する。
私たちのフレームワークは、手動アノテーションや事前トレーニングされたネットワークを使わずにトレーニングできます。
最初の実験では、提案されたパイプラインがオブジェクト中心のビデオ予測への有望なステップであることを確認した。
論文 参考訳(メタデータ) (2021-03-09T19:14:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。