論文の概要: Jointly spatial-temporal representation learning for individual
trajectories
- arxiv url: http://arxiv.org/abs/2312.04055v1
- Date: Thu, 7 Dec 2023 05:27:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 16:03:42.760219
- Title: Jointly spatial-temporal representation learning for individual
trajectories
- Title(参考訳): 個人軌跡の空間空間的表現学習
- Authors: Fei Huang, Jianrong Lv and Yang Yue
- Abstract要約: 本稿では、学習可能な時空間依存を軌跡表現にフォーマル化する時空間共同表現学習法(ST-GraphRL)を提案する。
提案されたST-GraphRLは、現実世界の3つの人間の移動性データセットでテストされた。
- 参考スコア(独自算出の注目度): 30.318791393724524
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Individual trajectories, containing substantial information on
human-environment interactions across space and time, is a crucial input for
geospatial foundation models (GeoFMs). However, existing attempts, leveraging
trajectory data for various applications have overlooked the implicit
spatial-temporal dependency within trajectories and failed to encode and
represent it in a format friendly to deep learning, posing a challenge in
obtaining general-purpose trajectory representations. Therefore, this paper
proposes a spatial-temporal joint representation learning method (ST-GraphRL)
to formalize learnable spatial-temporal dependencies into trajectory
representations. The proposed ST-GraphRL consists of three compositions: (i) a
weighted directed spatial-temporal graph to explicitly construct mobility
interactions over both space and time dimensions; (ii) a two-stage jointly
encoder (i.e., decoupling and fusion) to learn entangled spatial-temporal
dependencies by independently decomposing and jointly aggregating space and
time information; (iii) a decoder guides ST-GraphRL to learn explicit mobility
regularities by simulating the spatial-temporal distributions of trajectories.
Tested on three real-world human mobility datasets, the proposed ST-GraphRL
outperformed all the baseline models in predicting movement spatial-temporal
distributions and preserving trajectory similarity with high spatial-temporal
correlations. We also explore how spatial-temporal features presented in latent
space, validating that ST-GraphRL understands spatial-temporal patterns. This
method is also transferable for general-purpose geospatial data representations
for broad downstream tasks, as well advancing GeoFMs developing.
- Abstract(参考訳): 空間と時間にわたる人間と環境の相互作用に関する重要な情報を含む個々の軌道は、地理空間基盤モデル(GeoFM)にとって重要な入力である。
しかし、様々なアプリケーションにトラジェクトリデータを利用する既存の試みは、トラジェクトリ内の暗黙の空間的時間的依存性を見落とし、それを符号化し、深層学習に親しみやすいフォーマットで表現することができなかった。
そこで本稿では,学習可能な時空間依存を軌道表現に変換するための時空間共同表現学習法(ST-GraphRL)を提案する。
提案したST-GraphRLは3つの構成からなる。
(i)空間次元と時間次元の両方の移動性相互作用を明示的に構築する重み付き空間時間グラフ
二 空間及び時刻情報を独立に分解し統合することにより、絡み合う空間的-時間的依存関係を学習するための二段階共同エンコーダ(デカップリング及び融合)
(iii)デコーダは、軌道の空間-時間分布をシミュレートして、st-graphrlに明示的なモビリティの正則性を学習させる。
実世界の3つの人間の移動性データセットを用いて,ST-GraphRLは,移動時空間分布の予測と,空間時空間相関の高い軌道類似性の保存において,すべてのベースラインモデルより優れていた。
また,ST-GraphRLが空間時間パターンを理解することの妥当性を検証した。
この手法は、広域下流タスクのための汎用地理空間データ表現や、GeoFMの進展にも適用可能である。
関連論文リスト
- DSTCGCN: Learning Dynamic Spatial-Temporal Cross Dependencies for
Traffic Forecasting [7.3669718660909735]
本研究では,動的空間依存と時間依存を協調的に学習する動的時空間グラフ畳み込みネットワークを提案する。
6つの実世界のデータセットの実験は、DSTCGCNが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2023-07-02T08:53:10Z) - Dynamic Graph Convolutional Network with Attention Fusion for Traffic
Flow Prediction [10.3426659705376]
本稿では,同期時空間相関をモデル化するための注意融合型動的グラフ畳み込みネットワークを提案する。
我々は、4つの実世界の交通データセットにおいて、我々の手法が18のベースライン法と比較して最先端の性能を上回ることを示す広範な実験を行った。
論文 参考訳(メタデータ) (2023-02-24T12:21:30Z) - Spatio-Temporal Self-Supervised Learning for Traffic Flow Prediction [36.77135502344546]
本稿では,新しいST-SSL(Spatio-Supervised Learning)トラフィック予測フレームワークを提案する。
我々のST-SSLは、時空間の畳み込みによって、空間と時間にまたがる情報を符号化する統合モジュール上に構築されている。
4つのベンチマークデータセットの実験では、ST-SSLは様々な最先端のベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2022-12-07T10:02:01Z) - Spatio-temporal Tendency Reasoning for Human Body Pose and Shape
Estimation from Videos [10.50306784245168]
ビデオから人体ポーズの形状を復元するための時間的傾向推論(STR)ネットワークを提案する。
我々のSTRは、制約のない環境で正確で空間的な動きのシーケンスを学習することを目的としている。
STRは3つのデータセットの最先端と競合し続けています。
論文 参考訳(メタデータ) (2022-10-07T16:09:07Z) - Decoupling and Recoupling Spatiotemporal Representation for RGB-D-based
Motion Recognition [62.46544616232238]
従来の動作認識手法は、密結合した多時間表現によって有望な性能を実現している。
本稿では,RGB-D に基づく動作認識において引き起こされた表現を分離し,再分離することを提案する。
論文 参考訳(メタデータ) (2021-12-16T18:59:47Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z) - Spatial-Temporal Fusion Graph Neural Networks for Traffic Flow
Forecasting [35.072979313851235]
交通流の空間的-時間的データ予測は複雑な空間的依存性と道路間の時間的パターンの動的傾向のために難しい課題である。
既存のフレームワークは通常、与えられた空間隣接グラフと、空間的および時間的相関をモデル化する洗練されたメカニズムを利用する。
本稿では,交通流予測のための空間時間融合グラフニューラルネットワーク(STFGNN)を提案する。
論文 参考訳(メタデータ) (2020-12-15T14:03:17Z) - On the spatial attention in Spatio-Temporal Graph Convolutional Networks
for skeleton-based human action recognition [97.14064057840089]
カルチャーネットワーク(GCN)は、スケルトンをグラフとしてモデル化することで、スケルトンに基づく人間の行動認識の性能を約束する。
最近提案されたG時間に基づく手法のほとんどは、ネットワークの各層におけるグラフ構造を学習することで、性能を向上させる。
論文 参考訳(メタデータ) (2020-11-07T19:03:04Z) - Decoupled Spatial-Temporal Attention Network for Skeleton-Based Action
Recognition [46.836815779215456]
本稿では,骨格に基づく行動認識のための空間的注意ネットワーク(DSTA-Net)を提案する。
注意ブロックの構築には,空間的時間的注意分離,非結合位置符号化,空間的大域正規化という3つの手法が提案されている。
提案手法の有効性を検証するため,骨格に基づくジェスチャーと行動認識のための4つの挑戦的データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2020-07-07T07:58:56Z) - Disentangling and Unifying Graph Convolutions for Skeleton-Based Action
Recognition [79.33539539956186]
本稿では,マルチスケールグラフ畳み込みと,G3Dという空間時間グラフ畳み込み演算子を結合する簡単な方法を提案する。
これらの提案を結合することにより,MS-G3Dという強力な特徴抽出器を開発し,そのモデルが3つの大規模データセット上で従来の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-03-31T11:28:25Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。