論文の概要: HGAurban: Heterogeneous Graph Autoencoding for Urban Spatial-Temporal Learning
- arxiv url: http://arxiv.org/abs/2410.10915v2
- Date: Thu, 14 Aug 2025 05:43:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 15:52:16.688365
- Title: HGAurban: Heterogeneous Graph Autoencoding for Urban Spatial-Temporal Learning
- Title(参考訳): HGAurban: 都市空間時間学習のための異種グラフ自動符号化
- Authors: Qianru Zhang, Xinyi Gao, Haixin Wang, Dong Huang, Siu-Ming Yiu, Hongzhi Yin,
- Abstract要約: 重要な課題は、空間時空間グラフで意味のある領域表現を学習する既存のニューラルネットワークの能力を制限する、空間時空間データのノイズとスパースの性質にある。
都市データ表現のための自己教師付き生成学習を生かしたヘテロジニアスな空間時間グラフマスク型オートエンコーダであるHurbanを提案する。
- 参考スコア(独自算出の注目度): 36.80668790442231
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatial-temporal graph representations play a crucial role in urban sensing applications, including traffic analysis, human mobility behavior modeling, and citywide crime prediction. However, a key challenge lies in the noisy and sparse nature of spatial-temporal data, which limits existing neural networks' ability to learn meaningful region representations in the spatial-temporal graph. To overcome these limitations, we propose HGAurban, a novel heterogeneous spatial-temporal graph masked autoencoder that leverages generative self-supervised learning for robust urban data representation. Our framework introduces a spatial-temporal heterogeneous graph encoder that extracts region-wise dependencies from multi-source data, enabling comprehensive modeling of diverse spatial relationships. Within our self-supervised learning paradigm, we implement a masked autoencoder that jointly processes node features and graph structure. This approach automatically learns heterogeneous spatial-temporal patterns across regions, significantly improving the representation of dynamic temporal correlations. Comprehensive experiments across multiple spatiotemporal mining tasks demonstrate that our framework outperforms state-of-the-art methods and robustly handles real-world urban data challenges, including noise and sparsity in both spatial and temporal dimensions.
- Abstract(参考訳): 空間時間グラフ表現は、交通分析、人間の移動行動モデリング、都市全体の犯罪予測など、都市センシングの応用において重要な役割を担っている。
しかし、重要な課題は、空間時空間グラフで意味のある領域表現を学習する既存のニューラルネットワークの能力を制限する、空間時空間データのノイズとスパースの性質にある。
これらの制約を克服するため,HGAurbanを提案する。HGAurbanは,都市データ表現のための生成自己教師付き学習を活用する,異種空間時空間グラフマスク付きオートエンコーダである。
本フレームワークでは,マルチソースデータから領域依存性を抽出し,多様な空間関係の包括的モデリングを可能にする空間時空間異質グラフエンコーダを提案する。
自己教師型学習パラダイムでは,ノードの特徴とグラフ構造を協調的に処理するマスク付きオートエンコーダを実装している。
このアプローチは、領域間の不均一な時空間パターンを自動的に学習し、動的時空間相関の表現を大幅に改善する。
複数の時空間的マイニングタスクにわたる総合的な実験により、我々のフレームワークは最先端の手法より優れ、空間次元と時間次元の両方においてノイズや空間性を含む現実の都市データ課題を頑健に処理することを示した。
関連論文リスト
- Multivariate Long-term Time Series Forecasting with Fourier Neural Filter [55.09326865401653]
我々はFNFをバックボーンとして、DBDをアーキテクチャとして導入し、空間時間モデルのための優れた学習能力と最適な学習経路を提供する。
FNFは、局所時間領域とグローバル周波数領域の情報処理を単一のバックボーン内で統合し、空間的モデリングに自然に拡張することを示す。
論文 参考訳(メタデータ) (2025-06-10T18:40:20Z) - Conservation-informed Graph Learning for Spatiotemporal Dynamics Prediction [84.26340606752763]
本稿では,保護インフォームドGNN(CiGNN)について紹介する。
このネットワークは、保守的かつ非保守的な情報が、潜時的行進戦略によって多次元空間を通過する対称性による一般的な対称性保存則に従うように設計されている。
結果は,CiGNNが顕著なベースライン精度と一般化性を示し,様々な時間的ダイナミクスの予測のための学習に容易に適用可能であることを示した。
論文 参考訳(メタデータ) (2024-12-30T13:55:59Z) - Kriformer: A Novel Spatiotemporal Kriging Approach Based on Graph Transformers [5.4381914710364665]
本研究は, 環境問題として, スパースセンサの配置と信頼性の低いデータに対処する。
グラフクリフォーマーモデルであるKriformerは、限られた資源であっても、空間的および時間的相関をマイニングすることで、センサのない場所でデータを推定する。
論文 参考訳(メタデータ) (2024-09-23T11:01:18Z) - SFANet: Spatial-Frequency Attention Network for Weather Forecasting [54.470205739015434]
天気予報は様々な分野において重要な役割を担い、意思決定とリスク管理を推進している。
伝統的な手法は、しばしば気象系の複雑な力学を捉えるのに苦労する。
本稿では,これらの課題に対処し,天気予報の精度を高めるための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-29T08:00:15Z) - Spatio-Temporal Branching for Motion Prediction using Motion Increments [55.68088298632865]
HMP(Human Motion Prediction)はその多種多様な応用により、人気のある研究トピックとして浮上している。
従来の手法は手作りの機能と機械学習技術に依存している。
HMPのためのインクリメンタル情報を用いた時空間分岐ネットワークを提案する。
論文 参考訳(メタデータ) (2023-08-02T12:04:28Z) - Spatial-Temporal Graph Learning with Adversarial Contrastive Adaptation [19.419836274690816]
効率的な自己教師型学習を実現するための空間時空間グラフ学習モデル(GraphST)を提案する。
提案手法は, 重要な多視点自己教師情報の蒸留を自動化する, 対向的コントラスト学習パラダイムである。
実生活データセット上での様々な時空間予測タスクにおいて,提案手法の優位性を示す。
論文 参考訳(メタデータ) (2023-06-19T03:09:35Z) - Automated Spatio-Temporal Graph Contrastive Learning [18.245433428868775]
パラメータ化コントラストビュージェネレータを用いた時間自動拡張方式を開発した。
AutoSTは多視点セマンティクスをよく保存した異種グラフに適応することができる。
いくつかの実世界のデータセットで3つのダウンストリーム時間的マイニングタスクの実験は、大きなパフォーマンス向上を示している。
論文 参考訳(メタデータ) (2023-05-06T03:52:33Z) - An Adaptive Federated Relevance Framework for Spatial Temporal Graph
Learning [14.353798949041698]
本稿では,空間時間グラフ学習のための適応型フェデレーション関連フレームワークであるFedRelを提案する。
フレームワークのコアとなるDynamic Inter-Intra Graph (DIIG)モジュールは、これらの機能を使用して空間時間グラフを生成することができる。
局所的なデータプライバシーを維持しながらモデルの一般化能力と性能を向上させるため、関連性駆動型フェデレーション学習モジュールを設計する。
論文 参考訳(メタデータ) (2022-06-07T16:12:17Z) - Convolutional generative adversarial imputation networks for
spatio-temporal missing data in storm surge simulations [86.5302150777089]
GAN(Generative Adversarial Imputation Nets)とGANベースの技術は、教師なし機械学習手法として注目されている。
提案手法を Con Conval Generative Adversarial Imputation Nets (Conv-GAIN) と呼ぶ。
論文 参考訳(メタデータ) (2021-11-03T03:50:48Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - On the spatial attention in Spatio-Temporal Graph Convolutional Networks
for skeleton-based human action recognition [97.14064057840089]
カルチャーネットワーク(GCN)は、スケルトンをグラフとしてモデル化することで、スケルトンに基づく人間の行動認識の性能を約束する。
最近提案されたG時間に基づく手法のほとんどは、ネットワークの各層におけるグラフ構造を学習することで、性能を向上させる。
論文 参考訳(メタデータ) (2020-11-07T19:03:04Z) - A Novel Framework for Spatio-Temporal Prediction of Environmental Data
Using Deep Learning [0.0]
本稿では,深層学習を用いた気候・環境データの分解時間予測の枠組みを紹介する。
具体的には,完全時間信号の再構成を可能にする正規格子上に空間的にマッピング可能な関数を導入する。
実世界のシミュレーションデータへの応用は,提案フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2020-07-23T07:44:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。