論文の概要: PPT: Pre-Training with Pseudo-Labeled Trajectories for Motion Forecasting
- arxiv url: http://arxiv.org/abs/2412.06491v1
- Date: Mon, 09 Dec 2024 13:48:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:53:13.948238
- Title: PPT: Pre-Training with Pseudo-Labeled Trajectories for Motion Forecasting
- Title(参考訳): PPT:Pseudo-labeled Trajectories を用いた動き予測のための事前学習
- Authors: Yihong Xu, Yuan Yin, Tuan-Hung Vu, Alexandre Boulch, Éloi Zablocki, Matthieu Cord,
- Abstract要約: 自律走行のための運動予測は、複雑な都市シナリオにおける周辺エージェントの軌道予測を目的としている。
本研究では,擬似ラベル付きデータを用いたMFトレーニングにおいて,まず擬似ラベル付きデータを用いた事前学習動作予測を行い,注釈付きデータによる微調整を行う混合戦略について検討する。
- 参考スコア(独自算出の注目度): 90.47748423913369
- License:
- Abstract: Motion forecasting (MF) for autonomous driving aims at anticipating trajectories of surrounding agents in complex urban scenarios. In this work, we investigate a mixed strategy in MF training that first pre-train motion forecasters on pseudo-labeled data, then fine-tune them on annotated data. To obtain pseudo-labeled trajectories, we propose a simple pipeline that leverages off-the-shelf single-frame 3D object detectors and non-learning trackers. The whole pre-training strategy including pseudo-labeling is coined as PPT. Our extensive experiments demonstrate that: (1) combining PPT with supervised fine-tuning on annotated data achieves superior performance on diverse testbeds, especially under annotation-efficient regimes, (2) scaling up to multiple datasets improves the previous state-of-the-art and (3) PPT helps enhance cross-dataset generalization. Our findings showcase PPT as a promising pre-training solution for robust motion forecasting in diverse autonomous driving contexts.
- Abstract(参考訳): 自律走行のための運動予測(MF)は、複雑な都市シナリオにおける周辺エージェントの軌道予測を目的としている。
本研究では,擬似ラベル付きデータを用いたMFトレーニングにおいて,まず擬似ラベル付きデータを用いた事前学習動作予測を行い,注釈付きデータによる微調整を行う混合戦略について検討する。
擬似ラベル付き軌道を得るために,既製の単フレーム3次元物体検出器と非学習トラッカーを利用する単純なパイプラインを提案する。
擬似ラベルを含む事前学習戦略全体をPTとして作成する。
1) 注釈付きデータに対するPTと教師付き微調整を組み合わせることで,特にアノテーション効率のよい条件下でのテストベッドの性能向上,(2) 複数のデータセットへのスケールアップによる過去の最先端化,(3) PPTはクロスデータセットの一般化の促進に有効である。
以上の結果から, PPTは自律走行環境におけるロバストな動き予測のための有望な事前学習ソリューションであることが示された。
関連論文リスト
- TrajSSL: Trajectory-Enhanced Semi-Supervised 3D Object Detection [59.498894868956306]
Pseudo-labeling approach to semi-supervised learning は教師-学生の枠組みを採用する。
我々は、事前学習した動き予測モデルを活用し、擬似ラベル付きデータに基づいて物体軌跡を生成する。
提案手法は2つの異なる方法で擬似ラベル品質を向上する。
論文 参考訳(メタデータ) (2024-09-17T05:35:00Z) - StreamMOTP: Streaming and Unified Framework for Joint 3D Multi-Object Tracking and Trajectory Prediction [22.29257945966914]
我々は3次元多目的追跡・軌道予測(StreamMOTP)のためのストリーミング統合フレームワークを提案する。
ストリーミング方式でモデルを構築し、メモリバンクを利用して、追跡対象の長期潜伏機能をより効果的に保存し、活用する。
また,予測トラジェクタの品質と一貫性を2ストリーム予測器で改善する。
論文 参考訳(メタデータ) (2024-06-28T11:35:35Z) - Valeo4Cast: A Modular Approach to End-to-End Forecasting [93.86257326005726]
我々のソリューションはArgoverse 2 end-to-end Forecasting Challengeで63.82 mAPfでランクインした。
私たちは、知覚から予測までエンドツーエンドのトレーニングを通じて、このタスクに取り組む現在のトレンドから離れ、代わりにモジュラーアプローチを使用します。
私たちは、昨年の優勝者より+17.1ポイント、今年の優勝者より+13.3ポイント、予測結果を+17.1ポイント上回る。
論文 参考訳(メタデータ) (2024-06-12T11:50:51Z) - SPOT: Scalable 3D Pre-training via Occupancy Prediction for Learning Transferable 3D Representations [76.45009891152178]
トレーニング-ファインタニングアプローチは、さまざまな下流データセットとタスクをまたいだトレーニング済みのバックボーンを微調整することで、ラベル付けの負担を軽減することができる。
本稿では, 一般表現学習が, 占領予測のタスクを通じて達成できることを, 初めて示す。
本研究は,LiDAR 点の理解を促進するとともに,LiDAR の事前訓練における今後の進歩の道を開くことを目的とする。
論文 参考訳(メタデータ) (2023-09-19T11:13:01Z) - Pre-training on Synthetic Driving Data for Trajectory Prediction [61.520225216107306]
軌道予測におけるデータ不足の問題を緩和するパイプラインレベルのソリューションを提案する。
我々は、駆動データを生成するためにHDマップ拡張とトラジェクトリ合成を採用し、それらを事前学習することで表現を学習する。
我々は、データ拡張と事前学習戦略の有効性を実証するための広範な実験を行う。
論文 参考訳(メタデータ) (2023-09-18T19:49:22Z) - Transforming Model Prediction for Tracking [109.08417327309937]
トランスフォーマーは、誘導バイアスの少ないグローバルな関係を捉え、より強力なターゲットモデルの予測を学ぶことができる。
提案したトラッカーをエンドツーエンドにトレーニングし、複数のトラッカーデータセットに関する総合的な実験を行うことで、その性能を検証する。
我々のトラッカーは3つのベンチマークで新しい技術状態を設定し、挑戦的なLaSOTデータセットで68.5%のAUCを達成した。
論文 参考訳(メタデータ) (2022-03-21T17:59:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。