論文の概要: Motion Transformer with Global Intention Localization and Local Movement
Refinement
- arxiv url: http://arxiv.org/abs/2209.13508v1
- Date: Tue, 27 Sep 2022 16:23:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 15:51:59.631909
- Title: Motion Transformer with Global Intention Localization and Local Movement
Refinement
- Title(参考訳): グローバル・インテンション・ローカライゼーションと局所運動微細化を用いたモーショントランスフォーマ
- Authors: Shaoshuai Shi and Li Jiang and Dengxin Dai and Bernt Schiele
- Abstract要約: 動き TRansformer (MTR) は、大域的意図の局所化と局所的な動きの洗練の合同最適化として、動き予測をモデル化する。
MTRは、限界運動予測と関節運動予測の両方において最先端の性能を達成する。
- 参考スコア(独自算出の注目度): 103.75625476231401
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Predicting multimodal future behavior of traffic participants is essential
for robotic vehicles to make safe decisions. Existing works explore to directly
predict future trajectories based on latent features or utilize dense goal
candidates to identify agent's destinations, where the former strategy
converges slowly since all motion modes are derived from the same feature while
the latter strategy has efficiency issue since its performance highly relies on
the density of goal candidates. In this paper, we propose Motion TRansformer
(MTR) framework that models motion prediction as the joint optimization of
global intention localization and local movement refinement. Instead of using
goal candidates, MTR incorporates spatial intention priors by adopting a small
set of learnable motion query pairs. Each motion query pair takes charge of
trajectory prediction and refinement for a specific motion mode, which
stabilizes the training process and facilitates better multimodal predictions.
Experiments show that MTR achieves state-of-the-art performance on both the
marginal and joint motion prediction challenges, ranking 1st on the
leaderboards of Waymo Open Motion Dataset. Code will be available at
https://github.com/sshaoshuai/MTR.
- Abstract(参考訳): 交通参加者のマルチモーダルな将来の行動を予測することは、ロボット車両が安全な判断を下す上で不可欠である。
既存の研究は、潜伏した特徴に基づいて将来の軌道を直接予測したり、密集した目標候補を用いてエージェントの目的地を特定することを目的としている。
本稿では, 動き予測を大域的意図定位と局所的動き改善の協調最適化としてモデル化するモーショントランスフォーマティブ(mtr)フレームワークを提案する。
目標候補を使う代わりに、MTRは学習可能な少数の動きクエリーペアを採用することで、空間的意図を取り入れている。
各動作クエリペアは、特定の動作モードの軌道予測と改善を担当し、トレーニングプロセスを安定化し、より良いマルチモーダル予測を容易にする。
実験の結果、MTRは、Waymo Open Motion Datasetのリーダーボードで1位にランクインし、限界運動予測とジョイントモーション予測の両方で最先端のパフォーマンスを達成した。
コードはhttps://github.com/sshaoshuai/MTRで入手できる。
関連論文リスト
- JointMotion: Joint Self-supervision for Joint Motion Prediction [11.209594045884064]
自律運転における関節運動予測のための自己教師型学習手法であるJointMotionを提案する。
提案手法は,動作と環境を接続するシーンレベルの目的と,学習した表現を洗練するためのインスタンスレベルの目的を含む。
以上の結果から,これらの目的は協調動作予測のための事前学習として,近年のコントラスト・オートエンコーディング手法の相補的かつ優れたものであることが明らかとなった。
論文 参考訳(メタデータ) (2024-03-08T17:54:38Z) - MotionLM: Multi-Agent Motion Forecasting as Language Modeling [15.317827804763699]
マルチエージェント動作予測のための言語モデルであるMotionLMを提案する。
本手法は,対話的なスコアリングに先立って個々のエージェントの軌道生成を行う,ポストホック相互作用をバイパスする。
モデルの逐次分解は、時間的因果条件のロールアウトを可能にする。
論文 参考訳(メタデータ) (2023-09-28T15:46:25Z) - MTR++: Multi-Agent Motion Prediction with Symmetric Scene Modeling and
Guided Intention Querying [110.83590008788745]
自律運転システムにとって、複雑な運転シナリオを理解し、情報的な決定を下すためには、動きの予測が不可欠である。
本稿では,これらの課題に対処するためのMotion TRansformer (MTR) フレームワークを提案する。
最初のMTRフレームワークは、学習可能な意図クエリを備えたトランスフォーマーエンコーダ-デコーダ構造を利用する。
複数のエージェントに対するマルチモーダル動作を同時に予測するMTR++フレームワークを導入する。
論文 参考訳(メタデータ) (2023-06-30T16:23:04Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - MTR-A: 1st Place Solution for 2022 Waymo Open Dataset Challenge --
Motion Prediction [103.75625476231401]
本稿では,複数モーダル動作予測のための新しいモーショントランスフォーマーフレームワークを提案する。
非最大圧縮による単純なモデルアンサンブル戦略を採用し、最終的な性能をさらに向上させる。
当社のアプローチは,2022年のオープンデータセットチャレンジにおける行動予測のリーダーボード上での1位を達成し,他の手法よりも優れたマージンを達成している。
論文 参考訳(メタデータ) (2022-09-20T23:03:22Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z) - CoMoGCN: Coherent Motion Aware Trajectory Prediction with Graph
Representation [12.580809204729583]
グループ制約のある混雑したシーンにおける軌道予測のための,コヒーレントな動き認識グラフ畳み込みネットワーク(CoMoGCN)を提案する。
提案手法は,複数のトラジェクトリ予測ベンチマーク上での最先端性能と,検討したすべてのベンチマークの中で最高の平均性能を実現する。
論文 参考訳(メタデータ) (2020-05-02T09:10:30Z) - TPNet: Trajectory Proposal Network for Motion Prediction [81.28716372763128]
Trajectory Proposal Network (TPNet) は、新しい2段階の動作予測フレームワークである。
TPNetはまず、仮説の提案として将来の軌道の候補セットを生成し、次に提案の分類と修正によって最終的な予測を行う。
4つの大規模軌道予測データセットの実験は、TPNetが定量的かつ定性的に、最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-04-26T00:01:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。