論文の概要: LTMSformer: A Local Trend-Aware Attention and Motion State Encoding Transformer for Multi-Agent Trajectory Prediction
- arxiv url: http://arxiv.org/abs/2507.04634v1
- Date: Mon, 07 Jul 2025 03:33:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.266121
- Title: LTMSformer: A Local Trend-Aware Attention and Motion State Encoding Transformer for Multi-Agent Trajectory Prediction
- Title(参考訳): LTMSformer:マルチエージェント軌道予測のための局所トレンド認識・動作状態符号化変換器
- Authors: Yixin Yan, Yang Li, Yuanfan Wang, Xiaozhou Zhou, Beihao Xia, Manjiang Hu, Hongmao Qin,
- Abstract要約: 軌道予測のための時間空間相互作用特徴を抽出する軽量なフレームワークLTMSformerを提案する。
また、アクセラレーション、ジャーク、誘導などの高次動作状態属性を組み込むモーションステートも構築しています。
実験の結果,HVT-64法はベースラインよりも優れ,minADE法は約4.35%,minFDE法8.74%,MR法20%の低下を示した。
- 参考スコア(独自算出の注目度): 6.520837230073969
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It has been challenging to model the complex temporal-spatial dependencies between agents for trajectory prediction. As each state of an agent is closely related to the states of adjacent time steps, capturing the local temporal dependency is beneficial for prediction, while most studies often overlook it. Besides, learning the high-order motion state attributes is expected to enhance spatial interaction modeling, but it is rarely seen in previous works. To address this, we propose a lightweight framework, LTMSformer, to extract temporal-spatial interaction features for multi-modal trajectory prediction. Specifically, we introduce a Local Trend-Aware Attention mechanism to capture the local temporal dependency by leveraging a convolutional attention mechanism with hierarchical local time boxes. Next, to model the spatial interaction dependency, we build a Motion State Encoder to incorporate high-order motion state attributes, such as acceleration, jerk, heading, etc. To further refine the trajectory prediction, we propose a Lightweight Proposal Refinement Module that leverages Multi-Layer Perceptrons for trajectory embedding and generates the refined trajectories with fewer model parameters. Experiment results on the Argoverse 1 dataset demonstrate that our method outperforms the baseline HiVT-64, reducing the minADE by approximately 4.35%, the minFDE by 8.74%, and the MR by 20%. We also achieve higher accuracy than HiVT-128 with a 68% reduction in model size.
- Abstract(参考訳): 軌道予測のためのエージェント間の複雑な時間空間依存性をモデル化することは困難である。
エージェントの各状態は隣接する時間ステップの状態と密接に関連しているため、局所的な時間的依存を捉えることは予測に有用であるが、ほとんどの研究はそれを見落としている。
さらに、高次運動状態特性の学習は空間相互作用モデリングを強化することが期待されているが、それ以前の研究ではほとんど見られなかった。
そこで我々は,マルチモーダル軌道予測のための時間空間相互作用特徴を抽出する軽量フレームワークLTMSformerを提案する。
具体的には、階層的局所時間ボックスを用いた畳み込みアテンション機構を活用することで、局所的時間依存性を捕捉する局所的トレンド認識機構を提案する。
次に、空間的相互作用の依存性をモデル化するために、加速度、ジャーク、方向などの高次運動状態属性を組み込むモーション状態エンコーダを構築する。
トラジェクトリ予測をさらに洗練するために,多層パーセプタロンをトラジェクトリ埋め込みに利用し,より少ないモデルパラメータで改良されたトラジェクトリを生成する軽量提案リファインメントモジュールを提案する。
Argoverse 1 データセット実験の結果,提案手法はベースラインの HiVT-64 よりも優れ,minADE は約4.35%,minFDE は8.74%,MR は20% 向上した。
また,モデルサイズを68%削減したHiVT-128よりも高い精度を実現した。
関連論文リスト
- Trajectory Mamba: Efficient Attention-Mamba Forecasting Model Based on Selective SSM [16.532357621144342]
本稿では、選択状態空間モデル(SSM)に基づく新しい効率的な軌道予測フレームワークであるTrajectory Mambaを紹介する。
注意機構の変更による予測精度の潜在的な低減に対処するため,共同ポリリン符号化戦略を提案する。
本モデルでは,Argoverse 1 と Argoverse 2 の両方のデータセットにおける推定速度とパラメータ効率の両面から,最先端の結果が得られる。
論文 参考訳(メタデータ) (2025-03-13T21:31:12Z) - Post-interactive Multimodal Trajectory Prediction for Autonomous Driving [10.93007749660849]
本稿では,マルチモーダル軌道予測のためのトランスフォーマー,すなわちPioformerを提案する。
予測精度を高めるために、反応後の特徴を明示的に抽出する。
予測誤差は, minADE6, minFDE6, MR6, brier-minFDE6でそれぞれ4.4%, 8.4%, 14.4%, 5.7%減少した。
論文 参考訳(メタデータ) (2025-03-12T13:10:09Z) - AMP: Autoregressive Motion Prediction Revisited with Next Token Prediction for Autonomous Driving [59.94343412438211]
本稿では,GPT方式の次のトークン動作予測を動作予測に導入する。
同種単位-ワードからなる言語データとは異なり、運転シーンの要素は複雑な空間的・時間的・意味的な関係を持つ可能性がある。
そこで本稿では,情報集約と位置符号化スタイルの異なる3つの因子化アテンションモジュールを用いて,それらの関係を捉えることを提案する。
論文 参考訳(メタデータ) (2024-03-20T06:22:37Z) - Multi-step Temporal Modeling for UAV Tracking [14.687636301587045]
MT-Track(MT-Track)は,UAV追跡の効率化を目的とした,効率的な多段階時間モデリングフレームワークである。
我々はテンプレートと検索領域の特徴間の相互作用を動的に評価するユニークな時間相関モジュールを公表する。
トラッキングシーケンスにおける時間的知識をモデル化することにより,過去のフレームと現在のフレームの相関マップを洗練するための相互変換モジュールを提案する。
論文 参考訳(メタデータ) (2024-03-07T09:48:13Z) - Trajeglish: Traffic Modeling as Next-Token Prediction [67.28197954427638]
自動運転開発における長年の課題は、記録された運転ログからシードされた動的運転シナリオをシミュレートすることだ。
車両、歩行者、サイクリストが運転シナリオでどのように相互作用するかをモデル化するために、離散シーケンスモデリングのツールを適用します。
我々のモデルはSim Agents Benchmarkを上回り、リアリズムメタメトリックの先行作業の3.3%、インタラクションメトリックの9.9%を上回ります。
論文 参考訳(メタデータ) (2023-12-07T18:53:27Z) - Multi View Spatial-Temporal Model for Travel Time Estimation [14.591364075326984]
時空間と軌跡の依存性を捉えるためのマルチビュー時空間モデル(MVSTM)を提案する。
具体的には,空間ビューのモデル化にGraph2vec,軌跡ビューのモデル化にデュアルチャネル時間モジュール,トラフィックセマンティクスのモデル化に構造埋め込みを用いる。
大規模タクシー軌道データを用いた実験により,本手法は新規手法よりも有効であることが示された。
論文 参考訳(メタデータ) (2021-09-15T16:11:18Z) - SGCN:Sparse Graph Convolution Network for Pedestrian Trajectory
Prediction [64.16212996247943]
歩行者軌道予測のためのスパースグラフ畳み込みネットワーク(SGCN)を提案する。
具体的には、SGCNはスパース指向の相互作用をスパース指向の空間グラフと明確にモデル化し、適応的な相互作用歩行者を捉える。
可視化は,歩行者の適応的相互作用とその運動特性を捉えることができることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:17:42Z) - GraphTCN: Spatio-Temporal Interaction Modeling for Human Trajectory
Prediction [5.346782918364054]
我々は,より効率的かつ正確な軌道予測を支援するために,新しいCNNベースの時空間グラフフレームワークGraphCNTを提案する。
従来のモデルとは対照的に,我々のモデルにおける空間的・時間的モデリングは各局所時間ウィンドウ内で計算される。
本モデルは,様々な軌道予測ベンチマークデータセットの最先端モデルと比較して,効率と精度の両面で優れた性能を実現する。
論文 参考訳(メタデータ) (2020-03-16T12:56:12Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z) - Spatial-Temporal Transformer Networks for Traffic Flow Forecasting [74.76852538940746]
本稿では,長期交通予測の精度を向上させるため,時空間変圧器ネットワーク(STTN)の新たなパラダイムを提案する。
具体的には、有向空間依存を動的にモデル化することにより、空間変換器と呼ばれる新しいグラフニューラルネットワークを提案する。
提案モデルにより,長期間にわたる空間的依存関係に対する高速かつスケーラブルなトレーニングが可能になる。
論文 参考訳(メタデータ) (2020-01-09T10:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。