論文の概要: STRAP: Spatio-Temporal Pattern Retrieval for Out-of-Distribution Generalization
- arxiv url: http://arxiv.org/abs/2505.19547v1
- Date: Mon, 26 May 2025 06:11:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.201665
- Title: STRAP: Spatio-Temporal Pattern Retrieval for Out-of-Distribution Generalization
- Title(参考訳): STRAP:Out-of-Distribution Generalizationのための時空間パターン検索
- Authors: Haoyu Zhang, Wentao Zhang, Hao Miao, Xinke Jiang, Yuchen Fang, Yifan Zhang,
- Abstract要約: 本稿では,時空間探索型パターン学習フレームワークSTRAPを提案する。
推論中、STRAPは現在の入力と類似性に基づいてライブラリから関連するパターンを検索し、プラグイン・アンド・プレイ・プロンプト機構を介してモデルに注入する。
複数の実世界のストリーミンググラフデータセットに対する実験によると、STRAPはSTOODタスクの最先端STGNNベースラインを一貫して上回っている。
- 参考スコア(独自算出の注目度): 34.53308463024231
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatio-Temporal Graph Neural Networks (STGNNs) have emerged as a powerful tool for modeling dynamic graph-structured data across diverse domains. However, they often fail to generalize in Spatio-Temporal Out-of-Distribution (STOOD) scenarios, where both temporal dynamics and spatial structures evolve beyond the training distribution. To address this problem, we propose an innovative Spatio-Temporal Retrieval-Augmented Pattern Learning framework,STRAP, which enhances model generalization by integrating retrieval-augmented learning into the STGNN continue learning pipeline. The core of STRAP is a compact and expressive pattern library that stores representative spatio-temporal patterns enriched with historical, structural, and semantic information, which is obtained and optimized during the training phase. During inference, STRAP retrieves relevant patterns from this library based on similarity to the current input and injects them into the model via a plug-and-play prompting mechanism. This not only strengthens spatio-temporal representations but also mitigates catastrophic forgetting. Moreover, STRAP introduces a knowledge-balancing objective to harmonize new information with retrieved knowledge. Extensive experiments across multiple real-world streaming graph datasets show that STRAP consistently outperforms state-of-the-art STGNN baselines on STOOD tasks, demonstrating its robustness, adaptability, and strong generalization capability without task-specific fine-tuning.
- Abstract(参考訳): Spatio-Temporal Graph Neural Networks (STGNNs) は、様々な領域にわたる動的グラフ構造化データをモデリングするための強力なツールとして登場した。
しかし、時空間力学と空間構造の両方が訓練分布を超えて進化する時空間分布(STOOD)のシナリオでは一般化に失敗することが多い。
そこで本研究では,検索強化学習をSTGNN継続学習パイプラインに統合することにより,モデル一般化を促進させる,革新的な時空間探索型パターン学習フレームワークSTRAPを提案する。
STRAPのコアはコンパクトで表現力豊かなパターンライブラリであり、トレーニング期間中に得られた歴史的、構造的、意味的な情報に富んだ代表時空間パターンを格納する。
推論中、STRAPは現在の入力と類似性に基づいてライブラリから関連するパターンを検索し、プラグイン・アンド・プレイ・プロンプト機構を介してモデルに注入する。
これは時空間表現を強化するだけでなく、破滅的な忘れを緩和する。
さらに、STRAPは、新しい情報を検索した知識と調和させるための知識バランスの目的を導入している。
複数の実世界のストリーミンググラフデータセットにわたる大規模な実験により、STRAPはSTOODタスクの最先端STGNNベースラインを一貫して上回り、タスク固有の微調整なしでその堅牢性、適応性、強力な一般化能力を示す。
関連論文リスト
- Conservation-informed Graph Learning for Spatiotemporal Dynamics Prediction [84.26340606752763]
本稿では,保護インフォームドGNN(CiGNN)について紹介する。
このネットワークは、保守的かつ非保守的な情報が、潜時的行進戦略によって多次元空間を通過する対称性による一般的な対称性保存則に従うように設計されている。
結果は,CiGNNが顕著なベースライン精度と一般化性を示し,様々な時間的ダイナミクスの予測のための学習に容易に適用可能であることを示した。
論文 参考訳(メタデータ) (2024-12-30T13:55:59Z) - DG-Mamba: Robust and Efficient Dynamic Graph Structure Learning with Selective State Space Models [16.435352947791923]
選択状態空間モデル(Mamba)を用いた動的グラフ構造学習フレームワークを提案する。
我々のフレームワークは、敵攻撃に対する最先端のベースラインよりも優れている。
論文 参考訳(メタデータ) (2024-12-11T07:32:38Z) - GPT-ST: Generative Pre-Training of Spatio-Temporal Graph Neural Networks [24.323017830938394]
この作業は、ベースラインとシームレスに統合し、パフォーマンスを向上する事前トレーニングフレームワークを導入することで、課題に対処することを目的としている。
フレームワークは2つの重要な設計に基づいて構築されている。
Apple-to-appleマスクオートエンコーダは、学習時間依存のための事前トレーニングモデルである。
これらのモジュールは、時間内カスタマイズされた表現とセマンティック・クラスタ間関係を捉えるように設計されている。
論文 参考訳(メタデータ) (2023-11-07T02:36:24Z) - OpenSTL: A Comprehensive Benchmark of Spatio-Temporal Predictive
Learning [67.07363529640784]
提案するOpenSTLは,一般的なアプローチを再帰的モデルと再帰的モデルに分類する。
我々は, 合成移動物体軌道, 人間の動き, 運転シーン, 交通流, 天気予報など, さまざまな領域にわたるデータセットの標準評価を行う。
リカレントフリーモデルは、リカレントモデルよりも効率と性能のバランスが良いことがわかった。
論文 参考訳(メタデータ) (2023-06-20T03:02:14Z) - Attention-based Spatial-Temporal Graph Convolutional Recurrent Networks
for Traffic Forecasting [12.568905377581647]
交通予測は交通科学と人工知能における最も基本的な問題の一つである。
既存の手法では、長期的相関と短期的相関を同時にモデル化することはできない。
本稿では,GCRN(Graph Convolutional Recurrent Module)とグローバルアテンションモジュールからなる新しい時空間ニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-25T03:37:00Z) - SPATE-GAN: Improved Generative Modeling of Dynamic Spatio-Temporal
Patterns with an Autoregressive Embedding Loss [4.504870356809408]
本稿では、時間的ダイナミクスの学習を強化するために、自己回帰埋め込みに基づく-GANと組み合わせた新しい損失目標を提案する。
組込み損失は -GAN のアーキテクチャを変更することなく性能を向上し,自己相関構造に対するモデルの能力向上を浮き彫りにしている。
論文 参考訳(メタデータ) (2021-09-30T12:10:05Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。