論文の概要: A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction
- arxiv url: http://arxiv.org/abs/2003.06107v3
- Date: Thu, 14 Oct 2021 11:56:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 01:50:02.103568
- Title: A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction
- Title(参考訳): 軌道予測のための空間連続性を有する時空間注意ネットワーク
- Authors: Beihao Xia, Conghao Wang, Qinmu Peng, Xinge You and Dacheng Tao
- Abstract要約: 空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
- 参考スコア(独自算出の注目度): 74.00750936752418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It remains challenging to automatically predict the multi-agent trajectory
due to multiple interactions including agent to agent interaction and scene to
agent interaction. Although recent methods have achieved promising performance,
most of them just consider spatial influence of the interactions and ignore the
fact that temporal influence always accompanies spatial influence. Moreover,
those methods based on scene information always require extra segmented scene
images to generate multiple socially acceptable trajectories. To solve these
limitations, we propose a novel model named spatial-temporal attentive network
with spatial continuity (STAN-SC). First, spatial-temporal attention mechanism
is presented to explore the most useful and important information. Second, we
conduct a joint feature sequence based on the sequence and instant state
information to make the generative trajectories keep spatial continuity.
Experiments are performed on the two widely used ETH-UCY datasets and
demonstrate that the proposed model achieves state-of-the-art prediction
accuracy and handles more complex scenarios.
- Abstract(参考訳): エージェント間相互作用、エージェント間相互作用、シーン間相互作用など複数の相互作用により、マルチエージェント軌道の自動予測は依然として困難である。
最近の手法は有望な性能を達成したが、そのほとんどは相互作用の空間的影響を考慮しており、時間的影響は常に空間的影響に付随するという事実を無視している。
さらに、シーン情報に基づくこれらの手法は、社会的に許容される複数のトラジェクタを生成するために、常に追加のセグメンテーションシーン画像を必要とする。
これらの制約を解決するために,空間連続性(STAN-SC)を持つ空間時空間減衰ネットワークという新しいモデルを提案する。
まず、最も有用な重要な情報を探るために、空間的時間的注意機構を示す。
第2に、シーケンスと瞬時状態情報に基づいてジョイント特徴列を行い、生成軌跡の空間連続性を維持する。
ETH-UCYデータセットで実験を行い、提案モデルが最先端の予測精度を実現し、より複雑なシナリオを扱うことを示した。
関連論文リスト
- SFANet: Spatial-Frequency Attention Network for Weather Forecasting [54.470205739015434]
天気予報は様々な分野において重要な役割を担い、意思決定とリスク管理を推進している。
伝統的な手法は、しばしば気象系の複雑な力学を捉えるのに苦労する。
本稿では,これらの課題に対処し,天気予報の精度を高めるための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-29T08:00:15Z) - Triplet Attention Transformer for Spatiotemporal Predictive Learning [9.059462850026216]
本稿では,フレーム間動的特徴とフレーム内静的特徴の両方を捉えるために,革新的な三重項注意変換器を提案する。
このモデルはトリプレット・アテンション・モジュール(TAM)を組み込んだもので、時間、空間、チャネル次元における自己アテンションのメカニズムを探求することで、従来のリカレント・ユニットを置き換える。
論文 参考訳(メタデータ) (2023-10-28T12:49:33Z) - Spatial-Temporal Knowledge-Embedded Transformer for Video Scene Graph
Generation [64.85974098314344]
映像シーングラフ生成(VidSGG)は、映像シーン内の物体を特定し、その映像との関係を推測することを目的としている。
因みに、オブジェクトペアとその関係は、各画像内の空間的共起相関と、異なる画像間の時間的一貫性/遷移相関を享受する。
本稿では,従来の空間的時間的知識をマルチヘッド・クロスアテンション機構に組み込んだ時空間的知識埋め込み型トランス (STKET) を提案する。
論文 参考訳(メタデータ) (2023-09-23T02:40:28Z) - Spatio-Temporal Branching for Motion Prediction using Motion Increments [55.68088298632865]
HMP(Human Motion Prediction)はその多種多様な応用により、人気のある研究トピックとして浮上している。
従来の手法は手作りの機能と機械学習技術に依存している。
HMPのためのインクリメンタル情報を用いた時空間分岐ネットワークを提案する。
論文 参考訳(メタデータ) (2023-08-02T12:04:28Z) - Learning Self-Modulating Attention in Continuous Time Space with
Applications to Sequential Recommendation [102.24108167002252]
本稿では,複雑で非線形に進化する動的ユーザの嗜好をモデル化する,自己変調型注意ネットワークを提案する。
提案手法がトップNシーケンシャルなレコメンデーションタスクに与える影響を実証的に示すとともに,3つの大規模実世界のデータセットによる結果から,我々のモデルが最先端のパフォーマンスを達成できることを示す。
論文 参考訳(メタデータ) (2022-03-30T03:54:11Z) - Spectral Temporal Graph Neural Network for Trajectory Prediction [24.212525264346887]
周囲のエージェントのコンテキスト環境と正確な動き予測を効果的に理解することは、自律走行車や社会移動ロボットの開発に不可欠である。
従来の研究は、周波数領域の手がかりを十分に活用せず、時間領域における空間情報と時間情報の活用に重点を置いていた。
本稿では,周波数領域におけるエージェント間相関と時間依存性を同時に捉えることのできるSpectral Temporal Graph Neural Network (SpecTGNN)を提案する。
論文 参考訳(メタデータ) (2021-06-05T16:51:54Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z) - Exploring Dynamic Context for Multi-path Trajectory Prediction [33.66335553588001]
動的コンテキストネットワーク(DCENet)という新しいフレームワークを提案する。
本フレームワークでは,エージェント間の空間的コンテキストを自己注意型アーキテクチャを用いて探索する。
学習した空間的時間的文脈に基づいて、各エージェントに対する将来の軌跡のセットを条件付きで予測する。
論文 参考訳(メタデータ) (2020-10-30T13:39:20Z) - Robust Trajectory Forecasting for Multiple Intelligent Agents in Dynamic
Scene [11.91073327154494]
動的シーンにおける複数エージェントのロバストな軌道予測手法を提案する。
提案手法は予測精度の点で最先端の予測手法より優れている。
論文 参考訳(メタデータ) (2020-05-27T02:32:55Z) - SSP: Single Shot Future Trajectory Prediction [26.18589883075203]
我々は,高度に混雑した環境下で自律的なエージェントに適用可能な,将来の軌道予測に対する堅牢な解を提案する。
まず, 複合場を用いて, 全道路エージェントの位置を単発で予測し, 一定の時間で予測する。
第二に、エージェント間の相互作用は非局所的な応答としてモデル化され、異なる場所間の空間的関係を時間的に捉えることができる。
第3に、シーンの意味的コンテキストをモデル化し、将来の動きに影響を与える可能性のある環境制約を考慮に入れます。
論文 参考訳(メタデータ) (2020-04-13T09:56:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。