論文の概要: Spatiotemporal Forecasting Meets Efficiency: Causal Graph Process Neural Networks
- arxiv url: http://arxiv.org/abs/2405.18879v1
- Date: Wed, 29 May 2024 08:37:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 18:09:15.312969
- Title: Spatiotemporal Forecasting Meets Efficiency: Causal Graph Process Neural Networks
- Title(参考訳): 時空間予測の効率性:因果グラフ処理ニューラルネットワーク
- Authors: Aref Einizade, Fragkiskos D. Malliaros, Jhony H. Giraldo,
- Abstract要約: Causal Graph Graph Processs (CGP) は、リレーショナルフィールド層の代わりにグラフフィルタを使用してパラメータを削減し、メモリ消費を最小限にする代替手段を提供する。
本稿では,CGPとGNNを組み合わせて時間予測を行う非線形モデルを提案する。CGProNetは高階グラフフィルタを採用し,パラメータの少ないモデルに最適化し,メモリ使用量を削減し,実行効率を向上させる。
- 参考スコア(独自算出の注目度): 5.703629317205571
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have advanced spatiotemporal forecasting by leveraging relational inductive biases among sensors (or any other measuring scheme) represented as nodes in a graph. However, current methods often rely on Recurrent Neural Networks (RNNs), leading to increased runtimes and memory use. Moreover, these methods typically operate within 1-hop neighborhoods, exacerbating the reduction of the receptive field. Causal Graph Processes (CGPs) offer an alternative, using graph filters instead of MLP layers to reduce parameters and minimize memory consumption. This paper introduces the Causal Graph Process Neural Network (CGProNet), a non-linear model combining CGPs and GNNs for spatiotemporal forecasting. CGProNet employs higher-order graph filters, optimizing the model with fewer parameters, reducing memory usage, and improving runtime efficiency. We present a comprehensive theoretical and experimental stability analysis, highlighting key aspects of CGProNet. Experiments on synthetic and real data demonstrate CGProNet's superior efficiency, minimizing memory and time requirements while maintaining competitive forecasting performance.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ内のノードとして表されるセンサ(または他の測定方法)間の関係帰納バイアスを活用することにより、時空間予測の高度化を実現している。
しかし、現在の手法はしばしばリカレントニューラルネットワーク(RNN)に依存しており、ランタイムとメモリ使用の増加につながっている。
さらに、これらの手法は典型的には1ホップの近傍で機能し、受容野の減少を悪化させる。
因果グラフプロセス(CGP)は、パラメータの削減とメモリ消費の最小化のために、MLP層の代わりにグラフフィルタを使用する代替手段を提供する。
本稿では,CGP と GNN を組み合わせた非線形モデルである Causal Graph Process Neural Network (CGProNet) を紹介する。
CGProNetは高階グラフフィルタを採用し、より少ないパラメータでモデルを最適化し、メモリ使用量を削減し、実行効率を向上させる。
本稿では,CGProNetの理論的および実験的安定性解析について概説する。
合成および実データに関する実験は、CGProNetの優れた効率性を示し、競合予測性能を維持しながら、メモリと時間要求を最小限に抑える。
関連論文リスト
- Pre-Training Identification of Graph Winning Tickets in Adaptive Spatial-Temporal Graph Neural Networks [5.514795777097036]
Lottery Ticket hypothesis (LTH) から派生した Graph Winning Ticket (GWT) の概念を導入する。
事前決定された恒星トポロジーをGWTとしてトレーニング前に採用することにより、エッジの削減と効率的な情報伝達のバランスをとることができる。
提案手法は,48GBのメモリを備えた単一A6000を用いて,最大規模の時空間データセット上でASTGNNのトレーニングを可能にする。
論文 参考訳(メタデータ) (2024-06-12T14:53:23Z) - Efficient Heterogeneous Graph Learning via Random Projection [65.65132884606072]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - RGP: Neural Network Pruning through Its Regular Graph Structure [6.0686251332936365]
本稿では,ニューラルネットワークのグラフ構造について検討し,レギュラーグラフベースプルーニング(RGP)を提案し,ワンショットニューラルネットワークプルーニングを行う。
実験の結果,グラフの平均最短経路長は,対応するニューラルネットワークの分類精度と負の相関が認められた。
論文 参考訳(メタデータ) (2021-10-28T15:08:32Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。