論文の概要: Weakly and Self-Supervised Class-Agnostic Motion Prediction for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2509.13116v1
- Date: Tue, 16 Sep 2025 14:22:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.122365
- Title: Weakly and Self-Supervised Class-Agnostic Motion Prediction for Autonomous Driving
- Title(参考訳): 自律運転における弱・自己監督型クラス非依存動作予測
- Authors: Ruibo Li, Hanyu Shi, Zhe Wang, Guosheng Lin,
- Abstract要約: 我々は,LiDAR点雲からの弱・自己監督型クラス非依存動作予測について検討した。
動作アノテーションを完全にあるいは部分的に注釈付けした(1%, 0.1%)フォアグラウンド/バックグラウンドマスクに置き換える,弱制御された新しいパラダイムを提案する。
- 参考スコア(独自算出の注目度): 52.79390062794558
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding motion in dynamic environments is critical for autonomous driving, thereby motivating research on class-agnostic motion prediction. In this work, we investigate weakly and self-supervised class-agnostic motion prediction from LiDAR point clouds. Outdoor scenes typically consist of mobile foregrounds and static backgrounds, allowing motion understanding to be associated with scene parsing. Based on this observation, we propose a novel weakly supervised paradigm that replaces motion annotations with fully or partially annotated (1%, 0.1%) foreground/background masks for supervision. To this end, we develop a weakly supervised approach utilizing foreground/background cues to guide the self-supervised learning of motion prediction models. Since foreground motion generally occurs in non-ground regions, non-ground/ground masks can serve as an alternative to foreground/background masks, further reducing annotation effort. Leveraging non-ground/ground cues, we propose two additional approaches: a weakly supervised method requiring fewer (0.01%) foreground/background annotations, and a self-supervised method without annotations. Furthermore, we design a Robust Consistency-aware Chamfer Distance loss that incorporates multi-frame information and robust penalty functions to suppress outliers in self-supervised learning. Experiments show that our weakly and self-supervised models outperform existing self-supervised counterparts, and our weakly supervised models even rival some supervised ones. This demonstrates that our approaches effectively balance annotation effort and performance.
- Abstract(参考訳): 動的環境における動作を理解することは自律運転にとって重要であり、クラスに依存しない動作予測の研究を動機付けている。
本研究では,LiDAR点雲からの弱・自己監督型クラス非依存動作予測について検討する。
屋外のシーンは、通常、移動式の前景と静的な背景で構成され、動きの理解をシーン解析と関連付けることができる。
本研究は,動作アノテーションを十分にあるいは部分的に注釈付けした(1%, 0.1%)フォアグラウンド/バックグラウンドマスクに置き換える,弱教師付きパラダイムを提案する。
そこで我々は,前景/裏景の手がかりを活かした弱教師付きアプローチを開発し,動き予測モデルの自己教師型学習を指導する。
前景運動は一般に非地上領域で起こるため、非地上/地上マスクは前景/背景マスクの代替として機能し、アノテーションの労力をさらに削減することができる。
提案手法は,非接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/接地/
さらに,マルチフレーム情報と堅牢なペナルティ関数を組み込んだロバスト一貫性を意識したチャンファー距離損失を設計し,自己教師型学習における外れ値の抑制を行う。
実験によると、我々の弱い自己監督モデルは、既存の自己監督モデルよりも優れており、弱い教師監督モデルも一部の教師監督モデルと競合している。
これは、私たちのアプローチがアノテーションの取り組みとパフォーマンスを効果的にバランスしていることを示しています。
関連論文リスト
- Self-Supervised Class-Agnostic Motion Prediction with Spatial and Temporal Consistency Regularizations [53.797896854533384]
クラスに依存しない動き予測法は点雲全体の動きを直接予測する。
既存のほとんどのメソッドは、完全に教師付き学習に依存しているが、ポイントクラウドデータの手作業によるラベル付けは、手間と時間を要する。
3つの簡単な空間的・時間的正則化損失を導入し,自己指導型学習プロセスの効率化を図る。
論文 参考訳(メタデータ) (2024-03-20T02:58:45Z) - Self-Supervised Bird's Eye View Motion Prediction with Cross-Modality
Signals [38.20643428486824]
密集した鳥の視線(BEV)の動きを自己監督的に学習することは、ロボット工学と自律運転の新たな研究である。
現在の自己監督法は主に点雲間の点対応に依存する。
マルチモダリティデータを活用することで,これらの問題に効果的に対処する,新たなクロスモダリティ自己教師型トレーニングフレームワークを導入する。
論文 参考訳(メタデータ) (2024-01-21T14:09:49Z) - Motion Inspired Unsupervised Perception and Prediction in Autonomous
Driving [29.731790562352344]
本論文は,オープンセット移動物体を理解するための学習学習モデルと予測モデルである,新規で挑戦的な方向性を開拓する。
提案フレームワークは自己学習フローを用いて自動メタラベリングパイプラインを起動し,自動監視を実現する。
提案手法は, オープンセット3次元検出と軌道予測において, 極めて有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-10-14T18:55:44Z) - Sample, Crop, Track: Self-Supervised Mobile 3D Object Detection for
Urban Driving LiDAR [43.971680545189756]
本稿では,SCTと呼ばれる自己制御型移動物体検出手法を提案する。
これは、検出性能を改善するために、モーションキューと期待対象サイズの両方を使用する。
我々は,KITTI追跡ベンチマークにおいて,最先端の自己管理型移動物体検出法TCRを著しく上回る性能を示した。
論文 参考訳(メタデータ) (2022-09-21T16:12:46Z) - MotionHint: Self-Supervised Monocular Visual Odometry with Motion
Constraints [70.76761166614511]
モノクローナルビジュアル・オドメトリー(VO)のための新しい自己教師型アルゴリズムMotionHintを提案する。
我々のMotionHintアルゴリズムは、既存のオープンソースSSM-VOシステムに容易に適用できる。
論文 参考訳(メタデータ) (2021-09-14T15:35:08Z) - Self-Supervision by Prediction for Object Discovery in Videos [62.87145010885044]
本稿では,この予測タスクを自己監督として利用し,画像シーケンス表現のための新しいオブジェクト中心モデルを構築する。
私たちのフレームワークは、手動アノテーションや事前トレーニングされたネットワークを使わずにトレーニングできます。
最初の実験では、提案されたパイプラインがオブジェクト中心のビデオ予測への有望なステップであることを確認した。
論文 参考訳(メタデータ) (2021-03-09T19:14:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。