論文の概要: Motion Transformer with Global Intention Localization and Local Movement
Refinement
- arxiv url: http://arxiv.org/abs/2209.13508v2
- Date: Sat, 18 Mar 2023 23:05:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 03:14:25.450887
- Title: Motion Transformer with Global Intention Localization and Local Movement
Refinement
- Title(参考訳): グローバル・インテンション・ローカライゼーションと局所運動微細化を用いたモーショントランスフォーマ
- Authors: Shaoshuai Shi and Li Jiang and Dengxin Dai and Bernt Schiele
- Abstract要約: 動き TRansformer (MTR) は、大域的意図の局所化と局所的な動きの洗練の合同最適化として、動き予測をモデル化する。
MTRは、限界運動予測と関節運動予測の両方において最先端の性能を達成する。
- 参考スコア(独自算出の注目度): 103.75625476231401
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Predicting multimodal future behavior of traffic participants is essential
for robotic vehicles to make safe decisions. Existing works explore to directly
predict future trajectories based on latent features or utilize dense goal
candidates to identify agent's destinations, where the former strategy
converges slowly since all motion modes are derived from the same feature while
the latter strategy has efficiency issue since its performance highly relies on
the density of goal candidates. In this paper, we propose Motion TRansformer
(MTR) framework that models motion prediction as the joint optimization of
global intention localization and local movement refinement. Instead of using
goal candidates, MTR incorporates spatial intention priors by adopting a small
set of learnable motion query pairs. Each motion query pair takes charge of
trajectory prediction and refinement for a specific motion mode, which
stabilizes the training process and facilitates better multimodal predictions.
Experiments show that MTR achieves state-of-the-art performance on both the
marginal and joint motion prediction challenges, ranking 1st on the
leaderboards of Waymo Open Motion Dataset. The source code is available at
https://github.com/sshaoshuai/MTR.
- Abstract(参考訳): 交通参加者のマルチモーダルな将来の行動を予測することは、ロボット車両が安全な判断を下す上で不可欠である。
既存の研究は、潜伏した特徴に基づいて将来の軌道を直接予測したり、密集した目標候補を用いてエージェントの目的地を特定することを目的としている。
本稿では, 動き予測を大域的意図定位と局所的動き改善の協調最適化としてモデル化するモーショントランスフォーマティブ(mtr)フレームワークを提案する。
目標候補を使う代わりに、MTRは学習可能な少数の動きクエリーペアを採用することで、空間的意図を取り入れている。
各動作クエリペアは、特定の動作モードの軌道予測と改善を担当し、トレーニングプロセスを安定化し、より良いマルチモーダル予測を容易にする。
実験の結果、MTRは、Waymo Open Motion Datasetのリーダーボードで1位にランクインし、限界運動予測とジョイントモーション予測の両方で最先端のパフォーマンスを達成した。
ソースコードはhttps://github.com/sshaoshuai/MTRで入手できる。
関連論文リスト
- DeMo: Decoupling Motion Forecasting into Directional Intentions and Dynamic States [6.856351850183536]
マルチモーダルなトラジェクトリクエリを2つのタイプに分離するフレームワークであるDeMoを紹介する。
この形式を利用することで、軌道の多モード性と動的進化特性を別々に最適化する。
さらに,グローバルな情報集約と状態シーケンスモデリングのためのアテンションとマンバの併用手法についても紹介する。
論文 参考訳(メタデータ) (2024-10-08T12:27:49Z) - AMP: Autoregressive Motion Prediction Revisited with Next Token Prediction for Autonomous Driving [59.94343412438211]
本稿では,GPT方式の次のトークン動作予測を動作予測に導入する。
同種単位-ワードからなる言語データとは異なり、運転シーンの要素は複雑な空間的・時間的・意味的な関係を持つ可能性がある。
そこで本稿では,情報集約と位置符号化スタイルの異なる3つの因子化アテンションモジュールを用いて,それらの関係を捉えることを提案する。
論文 参考訳(メタデータ) (2024-03-20T06:22:37Z) - MotionLM: Multi-Agent Motion Forecasting as Language Modeling [15.317827804763699]
マルチエージェント動作予測のための言語モデルであるMotionLMを提案する。
本手法は,対話的なスコアリングに先立って個々のエージェントの軌道生成を行う,ポストホック相互作用をバイパスする。
モデルの逐次分解は、時間的因果条件のロールアウトを可能にする。
論文 参考訳(メタデータ) (2023-09-28T15:46:25Z) - MTR++: Multi-Agent Motion Prediction with Symmetric Scene Modeling and
Guided Intention Querying [110.83590008788745]
自律運転システムにとって、複雑な運転シナリオを理解し、情報的な決定を下すためには、動きの予測が不可欠である。
本稿では,これらの課題に対処するためのMotion TRansformer (MTR) フレームワークを提案する。
最初のMTRフレームワークは、学習可能な意図クエリを備えたトランスフォーマーエンコーダ-デコーダ構造を利用する。
複数のエージェントに対するマルチモーダル動作を同時に予測するMTR++フレームワークを導入する。
論文 参考訳(メタデータ) (2023-06-30T16:23:04Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - MTR-A: 1st Place Solution for 2022 Waymo Open Dataset Challenge --
Motion Prediction [103.75625476231401]
本稿では,複数モーダル動作予測のための新しいモーショントランスフォーマーフレームワークを提案する。
非最大圧縮による単純なモデルアンサンブル戦略を採用し、最終的な性能をさらに向上させる。
当社のアプローチは,2022年のオープンデータセットチャレンジにおける行動予測のリーダーボード上での1位を達成し,他の手法よりも優れたマージンを達成している。
論文 参考訳(メタデータ) (2022-09-20T23:03:22Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z) - CoMoGCN: Coherent Motion Aware Trajectory Prediction with Graph
Representation [12.580809204729583]
グループ制約のある混雑したシーンにおける軌道予測のための,コヒーレントな動き認識グラフ畳み込みネットワーク(CoMoGCN)を提案する。
提案手法は,複数のトラジェクトリ予測ベンチマーク上での最先端性能と,検討したすべてのベンチマークの中で最高の平均性能を実現する。
論文 参考訳(メタデータ) (2020-05-02T09:10:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。