論文の概要: STDCformer: A Transformer-Based Model with a Spatial-Temporal Causal De-Confounding Strategy for Crowd Flow Prediction
- arxiv url: http://arxiv.org/abs/2412.02942v1
- Date: Wed, 04 Dec 2024 01:20:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:08:44.977228
- Title: STDCformer: A Transformer-Based Model with a Spatial-Temporal Causal De-Confounding Strategy for Crowd Flow Prediction
- Title(参考訳): STDCformer: 群流予測のための時空間因果分解戦略を用いた変圧器モデル
- Authors: Silu He, Peng Shen, Pingzhen Xu, Qinyao Luo, Haifeng Li,
- Abstract要約: 本研究では,過去の観測を将来の観測に変換するために,関数をF$で学習するタスクとして時空間予測を分解する。
本研究では,空間空間を学習し,過去のデータの因果関係を推定する空間空間的バックドア調整戦略を提案する。
また、時空間マッピングを導くために、未来と過去の間の注意を問うクロスタイムアテンション機構を導入する。
- 参考スコア(独自算出の注目度): 6.1725811611500285
- License:
- Abstract: Existing works typically treat spatial-temporal prediction as the task of learning a function $F$ to transform historical observations to future observations. We further decompose this cross-time transformation into three processes: (1) Encoding ($E$): learning the intrinsic representation of observations, (2) Cross-Time Mapping ($M$): transforming past representations into future representations, and (3) Decoding ($D$): reconstructing future observations from the future representations. From this perspective, spatial-temporal prediction can be viewed as learning $F = E \cdot M \cdot D$, which includes learning the space transformations $\left\{{E},{D}\right\}$ between the observation space and the hidden representation space, as well as the spatial-temporal mapping $M$ from future states to past states within the representation space. This leads to two key questions: \textbf{Q1: What kind of representation space allows for mapping the past to the future? Q2: How to achieve map the past to the future within the representation space?} To address Q1, we propose a Spatial-Temporal Backdoor Adjustment strategy, which learns a Spatial-Temporal De-Confounded (STDC) representation space and estimates the de-confounding causal effect of historical data on future data. This causal relationship we captured serves as the foundation for subsequent spatial-temporal mapping. To address Q2, we design a Spatial-Temporal Embedding (STE) that fuses the information of temporal and spatial confounders, capturing the intrinsic spatial-temporal characteristics of the representations. Additionally, we introduce a Cross-Time Attention mechanism, which queries the attention between the future and the past to guide spatial-temporal mapping.
- Abstract(参考訳): 既存の研究は、時空間予測を、歴史的観測を将来の観測に変換するために、関数をF$で学習するタスクとして扱うのが一般的である。
さらに、このクロスタイム変換を、3つのプロセスに分解する:(1)エンコード(E$):観測の本質的な表現を学ぶ(2)クロスタイムマッピング(M$):過去の表現を将来の表現に変換する(3)デコード(D$):将来の表現から将来の観測を再構築する。
この観点では、空間的時間的予測は、$F = E \cdot M \cdot D$の学習と見なすことができ、これは、観測空間と隠された表現空間の間の空間変換を学習する$\left\{{E},{D}\right\}$と、将来の状態から表現空間内の過去の状態への空間的時間的写像$M$の学習を含む。
これは2つの重要な質問につながります。 \textbf{Q1: 過去を未来にマッピングする上で、どのような表現空間が有効か?
Q2: 過去を表現空間内の未来にマップする方法?
Q1に対処するため,時空間デコンストラクタ(STDC)表現空間を学習し,過去のデータによる因果関係の解消効果を推定する空間的バックドア調整戦略を提案する。
この因果関係は、その後の時空間マッピングの基礎となる。
Q2に対処するために、時間的・空間的共創者の情報を融合した空間的・時間的埋め込み(STE)を設計し、表現の内在的な時空間的特性を捉える。
さらに,過去と未来の間の注意を問うクロスタイムアテンション機構を導入し,時空間マッピングのガイドを行う。
関連論文リスト
- TPP-Gaze: Modelling Gaze Dynamics in Space and Time with Neural Temporal Point Processes [63.95928298690001]
ニューラル・テンポラル・ポイント・プロセス(TPP)に基づく新規かつ原則化されたスキャンパスダイナミクスのアプローチであるTPP-Gazeを提案する。
提案手法は,最先端手法と比較して総合的に優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-30T19:22:38Z) - Spatial-Temporal Large Language Model for Traffic Prediction [21.69991612610926]
交通予測のための時空間大言語モデル(ST-LLM)を提案する。
ST-LLMでは,各位置の時間ステップをトークンとして定義し,空間的位置とグローバルな時間的パターンを学習するための空間的時間的埋め込みを設計する。
実トラフィックデータセットの実験において、ST-LLMは最先端のモデルより優れた空間時空間学習器である。
論文 参考訳(メタデータ) (2024-01-18T17:03:59Z) - STF: Spatial Temporal Fusion for Trajectory Prediction [18.359362362173098]
軌道予測は、車や歩行者の将来の軌道を短時間で予測することを目的とした課題である。
モデルが捉えることができる情報が多ければ多いほど、将来の軌道はより正確に予測できる。
本研究では,空間的エッジと時間的エッジを一体化した3Dグラフを提案する。
論文 参考訳(メタデータ) (2023-11-29T23:31:40Z) - TempSAL -- Uncovering Temporal Information for Deep Saliency Prediction [64.63645677568384]
本稿では,逐次時間間隔でサリエンシマップを出力する新たなサリエンシ予測モデルを提案する。
提案手法は,学習した時間マップを組み合わせることで,サリエンシ予測を局所的に調整する。
私たちのコードはGitHubで公開されます。
論文 参考訳(メタデータ) (2023-01-05T22:10:16Z) - Enhancing Spatiotemporal Prediction Model using Modular Design and
Beyond [2.323220706791067]
時間と空間の両方でシーケンスを予測することは困難である。
主流の方法は、同時に時間構造と空間構造をモデル化することである。
配列モデルを空間エンコーダデコーダと予測器の2つのモジュールに組み込むモジュール設計を提案する。
論文 参考訳(メタデータ) (2022-10-04T10:09:35Z) - ST-P3: End-to-end Vision-based Autonomous Driving via Spatial-Temporal
Feature Learning [132.20119288212376]
本稿では,認識,予測,計画タスクを同時に行うための,より代表的な特徴の集合に対する時空間的特徴学習手法を提案する。
私たちの知識を最大限に活用するために、私たちは、解釈可能なエンドツーエンドの自動運転システムの各部分を体系的に調査した最初の人です。
論文 参考訳(メタデータ) (2022-07-15T16:57:43Z) - ST-DETR: Spatio-Temporal Object Traces Attention Detection Transformer [2.4366811507669124]
本研究では,時間的フレーム列からのオブジェクト検出のための時空間変換器アーキテクチャを提案する。
両次元にまたがる特徴相関を利用するために, 注意機構をフルに活用する。
その結果,KITTI MODデータセットでは5%のmAP改善が見られた。
論文 参考訳(メタデータ) (2021-07-13T07:38:08Z) - TPCN: Temporal Point Cloud Networks for Motion Forecasting [47.829152433166016]
軌道予測のための空間的・時間的共同学習フレームワークを提案する。
空間的次元ではエージェントは無秩序な点集合と見なすことができ、したがってエージェントの位置をモデル化するためにポイントクラウド学習技術を適用することは容易である。
Argoverse運動予測ベンチマークの実験は、私たちのアプローチが最先端の結果を達成することを示しています。
論文 参考訳(メタデータ) (2021-03-04T14:44:32Z) - CaSPR: Learning Canonical Spatiotemporal Point Cloud Representations [72.4716073597902]
本研究では,動的あるいは動いた物体の標準点クラウド表現を学習する手法を提案する。
本稿では, 形状再構成, カメラポーズ推定, 連続時間列再構成, 対応推定など, 様々な応用における本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-08-06T17:58:48Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。