論文の概要: Kriformer: A Novel Spatiotemporal Kriging Approach Based on Graph Transformers
- arxiv url: http://arxiv.org/abs/2409.14906v1
- Date: Mon, 23 Sep 2024 11:01:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-26 15:26:12.924789
- Title: Kriformer: A Novel Spatiotemporal Kriging Approach Based on Graph Transformers
- Title(参考訳): Kriformer: グラフ変換器に基づく新しい時空間クリグ手法
- Authors: Renbin Pan, Feng Xiao, Hegui Zhang, Minyu Shen,
- Abstract要約: 本研究は, 環境問題として, スパースセンサの配置と信頼性の低いデータに対処する。
グラフクリフォーマーモデルであるKriformerは、限られた資源であっても、空間的および時間的相関をマイニングすることで、センサのない場所でデータを推定する。
- 参考スコア(独自算出の注目度): 5.4381914710364665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurately estimating data in sensor-less areas is crucial for understanding system dynamics, such as traffic state estimation and environmental monitoring. This study addresses challenges posed by sparse sensor deployment and unreliable data by framing the problem as a spatiotemporal kriging task and proposing a novel graph transformer model, Kriformer. This model estimates data at locations without sensors by mining spatial and temporal correlations, even with limited resources. Kriformer utilizes transformer architecture to enhance the model's perceptual range and solve edge information aggregation challenges, capturing spatiotemporal information effectively. A carefully constructed positional encoding module embeds the spatiotemporal features of nodes, while a sophisticated spatiotemporal attention mechanism enhances estimation accuracy. The multi-head spatial interaction attention module captures subtle spatial relationships between observed and unobserved locations. During training, a random masking strategy prompts the model to learn with partial information loss, allowing the spatiotemporal embedding and multi-head attention mechanisms to synergistically capture correlations among locations. Experimental results show that Kriformer excels in representation learning for unobserved locations, validated on two real-world traffic speed datasets, demonstrating its effectiveness in spatiotemporal kriging tasks.
- Abstract(参考訳): センサレス領域における正確なデータ推定は,交通状況推定や環境モニタリングといったシステムダイナミクスを理解する上で重要である。
本研究は、時空間クリグタスクとして問題をフレーミングし、新しいグラフトランスフォーマーモデルであるKriformerを提案することにより、スパースセンサの展開と信頼性の低いデータによる課題に対処する。
このモデルは、限られた資源であっても、空間的および時間的相関をマイニングすることで、センサのない場所のデータを推定する。
Kriformerはトランスフォーマーアーキテクチャを使用して、モデルの知覚範囲を拡大し、エッジ情報集約の課題を解決し、時空間情報を効果的にキャプチャする。
注意深く構成された位置符号化モジュールはノードの時空間的特徴を埋め込むが、洗練された時空間的注意機構は推定精度を高める。
マルチヘッド空間相互作用アテンションモジュールは観測された位置と観測されていない位置の間の微妙な空間関係をキャプチャする。
トレーニング中、ランダムマスキング戦略は、部分的な情報損失で学習するようモデルに促し、時空間埋め込みとマルチヘッドアテンション機構により、位置間の相関関係を相乗的に捉えることができる。
実験の結果、Kriformerは2つの実世界の交通速度データセットで検証された、観測されていない場所の表現学習に優れており、時空間クリグタスクにおけるその効果が示されている。
関連論文リスト
- Graph Masked Autoencoder for Spatio-Temporal Graph Learning [38.085962443141206]
都市センシングの分野では,交通分析,人体移動評価,犯罪予測において,効果的な時間的予測の枠組みが重要な役割を担っている。
空間的および時間的データにデータノイズと空間性が存在することは、ロバスト表現を学習する上で、既存のニューラルネットワークモデルにとって大きな課題となる。
実効時間データ拡張のための新しい自己教師型学習パラダイムを提案する。
論文 参考訳(メタデータ) (2024-10-14T07:33:33Z) - Localized Gaussians as Self-Attention Weights for Point Clouds Correspondence [92.07601770031236]
本稿では,エンコーダのみのトランスフォーマーアーキテクチャのアテンションヘッドにおける意味的意味パターンについて検討する。
注意重みの修正はトレーニングプロセスの促進だけでなく,最適化の安定性の向上にも寄与する。
論文 参考訳(メタデータ) (2024-09-20T07:41:47Z) - Navigating Spatio-Temporal Heterogeneity: A Graph Transformer Approach for Traffic Forecasting [13.309018047313801]
交通予測はスマートシティの発展において重要な研究分野として浮上している。
最短時間相関のためのネットワークモデリングの最近の進歩は、パフォーマンスのリターンが低下し始めている。
これらの課題に対処するために、時空間グラフ変換器(STGormer)を導入する。
本研究では,その構造に基づく空間符号化手法を2つ設計し,時間位置をバニラ変圧器に統合して時間的トラフィックパターンをキャプチャする。
論文 参考訳(メタデータ) (2024-08-20T13:18:21Z) - Robust Collaborative Perception without External Localization and Clock Devices [52.32342059286222]
複数のエージェントをまたいだ一貫した空間的時間的調整は、協調的な知覚の基礎である。
従来の手法は、ローカライゼーションとクロック信号を提供するために外部デバイスに依存している。
本稿では,様々なエージェントの知覚データに内在する幾何学的パターンを認識して整列する手法を提案する。
論文 参考訳(メタデータ) (2024-05-05T15:20:36Z) - Attention-based Spatial-Temporal Graph Convolutional Recurrent Networks
for Traffic Forecasting [12.568905377581647]
交通予測は交通科学と人工知能における最も基本的な問題の一つである。
既存の手法では、長期的相関と短期的相関を同時にモデル化することはできない。
本稿では,GCRN(Graph Convolutional Recurrent Module)とグローバルアテンションモジュールからなる新しい時空間ニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-25T03:37:00Z) - Correlating sparse sensing for large-scale traffic speed estimation: A
Laplacian-enhanced low-rank tensor kriging approach [76.45949280328838]
本稿では,Laplacian enhanced Low-rank tensor (LETC) フレームワークを提案する。
次に,提案したモデルをネットワークワイド・クリグにスケールアップするために,複数の有効な数値手法を用いて効率的な解アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-10-21T07:25:57Z) - DMGCRN: Dynamic Multi-Graph Convolution Recurrent Network for Traffic
Forecasting [7.232141271583618]
以上の問題に対処する新しい動的多重グラフ畳み込み再帰ネットワーク(DMG)を提案する。
距離に基づくグラフを用いて,距離の近いノードから空間情報をキャプチャする。
また,道路間の構造相関を符号化した新しい潜在グラフを構築し,ノードから空間情報をキャプチャする。
論文 参考訳(メタデータ) (2021-12-04T06:51:55Z) - Convolutional generative adversarial imputation networks for
spatio-temporal missing data in storm surge simulations [86.5302150777089]
GAN(Generative Adversarial Imputation Nets)とGANベースの技術は、教師なし機械学習手法として注目されている。
提案手法を Con Conval Generative Adversarial Imputation Nets (Conv-GAIN) と呼ぶ。
論文 参考訳(メタデータ) (2021-11-03T03:50:48Z) - Spatial-Temporal Conv-sequence Learning with Accident Encoding for
Traffic Flow Prediction [17.94199362114272]
インテリジェント交通システムにおいて、交通予測の重要な問題は、周期的時間的依存関係と複雑な空間的相関を抽出する方法である。
本研究では、集中時間ブロックが一方向の畳み込みを用いて、短時間の時間的依存を効果的に捉えた時空間連続学習(STCL)を提案する。
本研究では,大規模実世界のタスクについて広範な実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2021-05-21T17:43:07Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。