論文の概要: Self-Supervised Pillar Motion Learning for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2104.08683v1
- Date: Sun, 18 Apr 2021 02:32:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:55:17.050431
- Title: Self-Supervised Pillar Motion Learning for Autonomous Driving
- Title(参考訳): 自律運転のための自己監督型ピララ運動学習
- Authors: Chenxu Luo, Xiaodong Yang, Alan Yuille
- Abstract要約: 本研究では,点群からの自由監視信号と対カメラ画像を利用した学習フレームワークを提案する。
本モデルでは,確率的運動マスキングを付加した点雲に基づく構造整合性と,所望の自己超越を実現するためのクロスセンサ運動正規化を含む。
- 参考スコア(独自算出の注目度): 10.921208239968827
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Autonomous driving can benefit from motion behavior comprehension when
interacting with diverse traffic participants in highly dynamic environments.
Recently, there has been a growing interest in estimating class-agnostic motion
directly from point clouds. Current motion estimation methods usually require
vast amount of annotated training data from self-driving scenes. However,
manually labeling point clouds is notoriously difficult, error-prone and
time-consuming. In this paper, we seek to answer the research question of
whether the abundant unlabeled data collections can be utilized for accurate
and efficient motion learning. To this end, we propose a learning framework
that leverages free supervisory signals from point clouds and paired camera
images to estimate motion purely via self-supervision. Our model involves a
point cloud based structural consistency augmented with probabilistic motion
masking as well as a cross-sensor motion regularization to realize the desired
self-supervision. Experiments reveal that our approach performs competitively
to supervised methods, and achieves the state-of-the-art result when combining
our self-supervised model with supervised fine-tuning.
- Abstract(参考訳): 自律運転は、高度にダイナミックな環境で様々な交通参加者と対話する場合の動作行動理解の恩恵を受ける。
近年,点雲から直接クラス非依存運動を推定することへの関心が高まっている。
現在の動き推定法は、通常、自動運転シーンから大量の注釈付きトレーニングデータを必要とする。
しかし、手動でポイントクラウドをラベル付けするのは、非常に難しく、エラーが発生し、時間がかかります。
本稿では,膨大な未ラベルデータ収集を高精度かつ効率的な運動学習に活用できるかどうかという研究課題に答える。
そこで本研究では,点群と対のカメラ画像から自由監視信号を活用し,純粋に自己スーパービジョンによって動作を推定する学習フレームワークを提案する。
本モデルでは,確率的運動マスキングを付加した点雲に基づく構造整合性と,所望の自己超越を実現するためのクロスセンサ運動正規化を含む。
実験により,本手法は教師付き手法と競争的に動作し,教師付き微調整と自己教師付きモデルを組み合わせることで最先端の結果が得られることがわかった。
関連論文リスト
- DiFSD: Ego-Centric Fully Sparse Paradigm with Uncertainty Denoising and Iterative Refinement for Efficient End-to-End Self-Driving [55.53171248839489]
我々は、エンドツーエンドの自動運転のためのエゴ中心の完全スパースパラダイムであるDiFSDを提案する。
特に、DiFSDは主にスパース知覚、階層的相互作用、反復的な運動プランナーから構成される。
nuScenesとBench2Driveデータセットで実施された実験は、DiFSDの優れた計画性能と優れた効率を実証している。
論文 参考訳(メタデータ) (2024-09-15T15:55:24Z) - Self-Supervised Class-Agnostic Motion Prediction with Spatial and Temporal Consistency Regularizations [53.797896854533384]
クラスに依存しない動き予測法は点雲全体の動きを直接予測する。
既存のほとんどのメソッドは、完全に教師付き学習に依存しているが、ポイントクラウドデータの手作業によるラベル付けは、手間と時間を要する。
3つの簡単な空間的・時間的正則化損失を導入し,自己指導型学習プロセスの効率化を図る。
論文 参考訳(メタデータ) (2024-03-20T02:58:45Z) - Self-Supervised Bird's Eye View Motion Prediction with Cross-Modality
Signals [38.20643428486824]
密集した鳥の視線(BEV)の動きを自己監督的に学習することは、ロボット工学と自律運転の新たな研究である。
現在の自己監督法は主に点雲間の点対応に依存する。
マルチモダリティデータを活用することで,これらの問題に効果的に対処する,新たなクロスモダリティ自己教師型トレーニングフレームワークを導入する。
論文 参考訳(メタデータ) (2024-01-21T14:09:49Z) - Self-Supervised Multi-Object Tracking For Autonomous Driving From
Consistency Across Timescales [53.55369862746357]
自己管理型マルチオブジェクトトラッカーは、生のドメイン固有データから学習できるという大きな可能性を秘めている。
しかし、その再識別精度は、監督対象よりも低い。
本稿では,複数の連続フレームから再同定特徴を自己教師付きで学習できる学習目標を提案する。
論文 参考訳(メタデータ) (2023-04-25T20:47:29Z) - Motion Inspired Unsupervised Perception and Prediction in Autonomous
Driving [29.731790562352344]
本論文は,オープンセット移動物体を理解するための学習学習モデルと予測モデルである,新規で挑戦的な方向性を開拓する。
提案フレームワークは自己学習フローを用いて自動メタラベリングパイプラインを起動し,自動監視を実現する。
提案手法は, オープンセット3次元検出と軌道予測において, 極めて有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-10-14T18:55:44Z) - An Adaptable Approach to Learn Realistic Legged Locomotion without
Examples [38.81854337592694]
本研究は,バネ装荷逆振り子モデルを用いて学習プロセスを導くことで,移動における現実性を保証するための汎用的アプローチを提案する。
モデルのない設定であっても、2足歩行ロボットと4足歩行ロボットに対して、学習したポリシーが現実的でエネルギー効率のよい移動歩行を生成できることを示す実験結果を示す。
論文 参考訳(メタデータ) (2021-10-28T10:14:47Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z) - Self-supervised Video Object Segmentation [76.83567326586162]
本研究の目的は、半教師付きビデオオブジェクトセグメンテーション(高密度トラッキング)の解決を目的とした自己教師付き表現学習である。
i) 従来の自己教師型アプローチを改善すること、(ii) オンライン適応モジュールによる自己教師型アプローチの強化により、空間的時間的不連続性によるトラッカーのドリフトを緩和すること、(iv) DAVIS-2017とYouTubeの自己教師型アプローチで最先端の結果を示すこと、などが提案されている。
論文 参考訳(メタデータ) (2020-06-22T17:55:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。