論文の概要: How Expressive are Spectral-Temporal Graph Neural Networks for Time
Series Forecasting?
- arxiv url: http://arxiv.org/abs/2305.06587v1
- Date: Thu, 11 May 2023 05:56:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-12 15:49:58.319962
- Title: How Expressive are Spectral-Temporal Graph Neural Networks for Time
Series Forecasting?
- Title(参考訳): 時系列予測のためのスペクトル-時間グラフニューラルネットワークの表現力
- Authors: Ming Jin, Guangsi Shi, Yuan-Fang Li, Qingsong Wen, Bo Xiong, Tian
Zhou, Shirui Pan
- Abstract要約: 我々は、スペクトル時間GNNの表現力を高める理論的枠組みを確立する。
その結果,線形スペクトル時間GNNは軽度仮定の下で普遍的であることがわかった。
本稿では,TGC(Temporal Graph GegenConv)というシンプルなインスタンス化を提案する。
- 参考スコア(独自算出の注目度): 46.95117922583253
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spectral-temporal graph neural network is a promising abstraction underlying
most time series forecasting models that are based on graph neural networks
(GNNs). However, more is needed to know about the underpinnings of this branch
of methods. In this paper, we establish a theoretical framework that unravels
the expressive power of spectral-temporal GNNs. Our results show that linear
spectral-temporal GNNs are universal under mild assumptions, and their
expressive power is bounded by our extended first-order Weisfeiler-Leman
algorithm on discrete-time dynamic graphs. To make our findings useful in
practice on valid instantiations, we discuss related constraints in detail and
outline a theoretical blueprint for designing spatial and temporal modules in
spectral domains. Building on these insights and to demonstrate how powerful
spectral-temporal GNNs are based on our framework, we propose a simple
instantiation named Temporal Graph GegenConv (TGC), which significantly
outperforms most existing models with only linear components and shows better
model efficiency.
- Abstract(参考訳): スペクトル時間グラフニューラルネットワークは、グラフニューラルネットワーク(GNN)に基づくほとんどの時系列予測モデルに基づく、有望な抽象化である。
しかし、この手法の根底についてもっと知る必要がある。
本稿では,スペクトル時間GNNの表現力を向上する理論的枠組みを確立する。
その結果,線形スペクトル時間GNNは軽微な仮定の下で普遍的であり,その表現力は離散時間動的グラフ上の1次Weisfeiler-Lemanアルゴリズムによって有界であることがわかった。
有効なインスタンス化を実践するために、関連する制約を詳細に検討し、スペクトル領域における空間的および時間的モジュールを設計するための理論的青写真について概説する。
これらの知見に基づいて、我々のフレームワークに基づいて、スペクトル時間GNNがいかに強力であるかを示すために、TGC(Temporal Graph GegenConv)というシンプルなインスタンスを提案し、線形成分のみで既存のモデルよりも大幅に優れ、モデル効率が向上した。
関連論文リスト
- On The Temporal Domain of Differential Equation Inspired Graph Neural
Networks [14.779420473274737]
我々のモデルは、TDE-GNNと呼ばれ、典型的な一階法や二階法を超越した、幅広い時間的ダイナミクスを捉えることができる。
いくつかのグラフベンチマークで予め定義された時間的ダイナミクスを使用するのではなく,我々の手法を用いて時間的依存を学習する利点を実証する。
論文 参考訳(メタデータ) (2024-01-20T01:12:57Z) - FourierGNN: Rethinking Multivariate Time Series Forecasting from a Pure
Graph Perspective [48.00240550685946]
現在の最先端グラフニューラルネットワーク(GNN)ベースの予測手法は、通常、シリーズ間(空間)のダイナミックスとシリーズ内(時間)の依存関係をキャプチャするために、グラフネットワーク(GCNなど)と時間ネットワーク(LSTMなど)の両方を必要とする。
提案するフーリエグラフ演算子(FGO)を積み重ねて,フーリエ空間で行列乗算を行うことにより,新しいフーリエグラフニューラルネットワーク(FourierGNN)を提案する。
7つのデータセットに対する実験は、より効率が良く、パラメータも少ないという優れた性能を示した。
論文 参考訳(メタデータ) (2023-11-10T17:13:26Z) - DyExplainer: Explainable Dynamic Graph Neural Networks [37.16783248212211]
我々は,動的グラフニューラルネットワーク(GNN)を高速に説明するための新しいアプローチであるDyExplainerを提案する。
DyExplainerは動的なGNNバックボーンをトレーニングし、各スナップショットでグラフの表現を抽出する。
また,事前指導型正規化を実現するために,コントラスト学習技術によるアプローチも強化する。
論文 参考訳(メタデータ) (2023-10-25T05:26:33Z) - Space-Time Graph Neural Networks with Stochastic Graph Perturbations [100.31591011966603]
時空間グラフニューラルネットワーク(ST-GNN)は、時間変動データの効率的なグラフ表現を学習する。
本稿では,ST-GNNの特性を再検討し,安定なグラフ安定性を示す。
解析の結果,ST-GNNは時間変化グラフ上での移動学習に適していることが示唆された。
論文 参考訳(メタデータ) (2022-10-28T16:59:51Z) - Scalable Spatiotemporal Graph Neural Networks [14.415967477487692]
グラフニューラルネットワーク(GNN)は、しばしば予測アーキテクチャのコアコンポーネントである。
ほとんどの時間前GNNでは、計算複雑性はグラフ内のリンクの回数のシーケンスの長さの2乗係数までスケールする。
本稿では,時間的・空間的両方のダイナミックスを効率的に符号化するスケーラブルなアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-09-14T09:47:38Z) - An Explainer for Temporal Graph Neural Networks [27.393641343203363]
時空間グラフニューラルネットワーク(TGNN)は、時間発展するグラフ関連タスクのモデリングに広く用いられている。
本稿では,TGNNモデルのための新しい説明フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-02T04:12:40Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。