論文の概要: Trajectory Mamba: Efficient Attention-Mamba Forecasting Model Based on Selective SSM
- arxiv url: http://arxiv.org/abs/2503.10898v1
- Date: Thu, 13 Mar 2025 21:31:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:07:38.814593
- Title: Trajectory Mamba: Efficient Attention-Mamba Forecasting Model Based on Selective SSM
- Title(参考訳): 軌道マンバ:選択SSMに基づく効率的な注意・マンバ予測モデル
- Authors: Yizhou Huang, Yihua Cheng, Kezhi Wang,
- Abstract要約: 本稿では、選択状態空間モデル(SSM)に基づく新しい効率的な軌道予測フレームワークであるTrajectory Mambaを紹介する。
注意機構の変更による予測精度の潜在的な低減に対処するため,共同ポリリン符号化戦略を提案する。
本モデルでは,Argoverse 1 と Argoverse 2 の両方のデータセットにおける推定速度とパラメータ効率の両面から,最先端の結果が得られる。
- 参考スコア(独自算出の注目度): 16.532357621144342
- License:
- Abstract: Motion prediction is crucial for autonomous driving, as it enables accurate forecasting of future vehicle trajectories based on historical inputs. This paper introduces Trajectory Mamba, a novel efficient trajectory prediction framework based on the selective state-space model (SSM). Conventional attention-based models face the challenge of computational costs that grow quadratically with the number of targets, hindering their application in highly dynamic environments. In response, we leverage the SSM to redesign the self-attention mechanism in the encoder-decoder architecture, thereby achieving linear time complexity. To address the potential reduction in prediction accuracy resulting from modifications to the attention mechanism, we propose a joint polyline encoding strategy to better capture the associations between static and dynamic contexts, ultimately enhancing prediction accuracy. Additionally, to balance prediction accuracy and inference speed, we adopted the decoder that differs entirely from the encoder. Through cross-state space attention, all target agents share the scene context, allowing the SSM to interact with the shared scene representation during decoding, thus inferring different trajectories over the next prediction steps. Our model achieves state-of-the-art results in terms of inference speed and parameter efficiency on both the Argoverse 1 and Argoverse 2 datasets. It demonstrates a four-fold reduction in FLOPs compared to existing methods and reduces parameter count by over 40% while surpassing the performance of the vast majority of previous methods. These findings validate the effectiveness of Trajectory Mamba in trajectory prediction tasks.
- Abstract(参考訳): 運動予測は、過去の入力に基づいて将来の車両軌道の正確な予測を可能にするため、自律運転には不可欠である。
本稿では、選択状態空間モデル(SSM)に基づく、新しい効率的な軌道予測フレームワークであるTrajectory Mambaを紹介する。
従来の注意に基づくモデルでは、ターゲット数と二次的に成長する計算コストの課題に直面しており、その適用を非常にダイナミックな環境で妨げている。
その結果,エンコーダ・デコーダアーキテクチャにおける自己保持機構を再設計し,線形時間複雑性を実現する。
注意機構の変更による予測精度の潜在的な低減に対処するため,静的コンテキストと動的コンテキストの関係をよりよく把握し,最終的に予測精度を向上するジョイントポリライン符号化戦略を提案する。
さらに、予測精度と推論速度のバランスをとるために、エンコーダとは全く異なるデコーダを採用した。
クロスステート空間の注意を通して、全てのターゲットエージェントはシーンコンテキストを共有し、SSMはデコード中に共有シーン表現と相互作用し、次の予測ステップで異なる軌道を推測する。
本モデルでは,Argoverse 1 と Argoverse 2 の両方のデータセットにおける推定速度とパラメータ効率の両面から,最先端の結果が得られる。
従来の手法に比べてFLOPの4倍の減少を示し、パラメータの数を40%以上削減し、従来の手法の大部分が性能を上回っている。
これらの結果から,軌道予測タスクにおける軌道マンバの有効性が検証された。
関連論文リスト
- ASTRA: A Scene-aware TRAnsformer-based model for trajectory prediction [15.624698974735654]
ASTRA (A Scene-aware TRAnsformer based model for trajectory prediction) は軽量な歩行者軌道予測モデルである。
我々は、U-Netベースの特徴抽出器を用いて、その潜在ベクトル表現を用いて、シーン表現をキャプチャし、グラフ対応トランスフォーマーエンコーダを用いて、ソーシャルインタラクションをキャプチャする。
論文 参考訳(メタデータ) (2025-01-16T23:28:30Z) - AMP: Autoregressive Motion Prediction Revisited with Next Token Prediction for Autonomous Driving [59.94343412438211]
本稿では,GPT方式の次のトークン動作予測を動作予測に導入する。
同種単位-ワードからなる言語データとは異なり、運転シーンの要素は複雑な空間的・時間的・意味的な関係を持つ可能性がある。
そこで本稿では,情報集約と位置符号化スタイルの異なる3つの因子化アテンションモジュールを用いて,それらの関係を捉えることを提案する。
論文 参考訳(メタデータ) (2024-03-20T06:22:37Z) - MTR++: Multi-Agent Motion Prediction with Symmetric Scene Modeling and
Guided Intention Querying [110.83590008788745]
自律運転システムにとって、複雑な運転シナリオを理解し、情報的な決定を下すためには、動きの予測が不可欠である。
本稿では,これらの課題に対処するためのMotion TRansformer (MTR) フレームワークを提案する。
最初のMTRフレームワークは、学習可能な意図クエリを備えたトランスフォーマーエンコーダ-デコーダ構造を利用する。
複数のエージェントに対するマルチモーダル動作を同時に予測するMTR++フレームワークを導入する。
論文 参考訳(メタデータ) (2023-06-30T16:23:04Z) - Motion-Scenario Decoupling for Rat-Aware Video Position Prediction:
Strategy and Benchmark [49.58762201363483]
本研究では,個人や環境の影響要因を考慮し,生物ロボットの動き予測データセットであるRatPoseを紹介する。
本稿では,シナリオ指向とモーション指向を効果的に分離するDual-stream Motion-Scenario Decouplingフレームワークを提案する。
難易度が異なるタスクに対して,提案したtextitDMSD フレームワークの大幅な性能向上を示す。
論文 参考訳(メタデータ) (2023-05-17T14:14:31Z) - Exploring Attention GAN for Vehicle Motion Prediction [2.887073662645855]
身体的・社会的文脈を考慮した動き予測モデルにおける注意の影響について検討した。
本稿では,Argoverse Motion Forecasting Benchmark 1.1 を用いて提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-09-26T13:18:32Z) - Bootstrap Motion Forecasting With Self-Consistent Constraints [52.88100002373369]
自己整合性制約を用いた動き予測をブートストラップする新しい枠組みを提案する。
運動予測タスクは、過去の空間的・時間的情報を組み込むことで、車両の将来の軌跡を予測することを目的としている。
提案手法は,既存手法の予測性能を常に向上することを示す。
論文 参考訳(メタデータ) (2022-04-12T14:59:48Z) - Stochastic Trajectory Prediction via Motion Indeterminacy Diffusion [88.45326906116165]
運動不確定性拡散(MID)の逆過程として軌道予測タスクを定式化する新しい枠組みを提案する。
我々は,履歴行動情報と社会的相互作用を状態埋め込みとしてエンコードし,トランジトリの時間的依存性を捉えるためにトランスフォーマーに基づく拡散モデルを考案する。
スタンフォード・ドローンやETH/UCYデータセットなど,人間の軌道予測ベンチマーク実験により,本手法の優位性を実証した。
論文 参考訳(メタデータ) (2022-03-25T16:59:08Z) - SGCN:Sparse Graph Convolution Network for Pedestrian Trajectory
Prediction [64.16212996247943]
歩行者軌道予測のためのスパースグラフ畳み込みネットワーク(SGCN)を提案する。
具体的には、SGCNはスパース指向の相互作用をスパース指向の空間グラフと明確にモデル化し、適応的な相互作用歩行者を捉える。
可視化は,歩行者の適応的相互作用とその運動特性を捉えることができることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:17:42Z) - Spatio-Temporal Graph Dual-Attention Network for Multi-Agent Prediction
and Tracking [23.608125748229174]
異種エージェントを含む多エージェント軌道予測のための汎用生成ニューラルシステムを提案する。
提案システムは, 軌道予測のための3つのベンチマークデータセット上で評価される。
論文 参考訳(メタデータ) (2021-02-18T02:25:35Z) - GraphTCN: Spatio-Temporal Interaction Modeling for Human Trajectory
Prediction [5.346782918364054]
我々は,より効率的かつ正確な軌道予測を支援するために,新しいCNNベースの時空間グラフフレームワークGraphCNTを提案する。
従来のモデルとは対照的に,我々のモデルにおける空間的・時間的モデリングは各局所時間ウィンドウ内で計算される。
本モデルは,様々な軌道予測ベンチマークデータセットの最先端モデルと比較して,効率と精度の両面で優れた性能を実現する。
論文 参考訳(メタデータ) (2020-03-16T12:56:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。