論文の概要: Temporal Graph Rewiring with Expander Graphs
- arxiv url: http://arxiv.org/abs/2406.02362v3
- Date: Tue, 22 Oct 2024 13:43:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-23 14:26:40.554538
- Title: Temporal Graph Rewiring with Expander Graphs
- Title(参考訳): Expander Graphsを用いたテンポラルグラフのリライト
- Authors: Katarina Petrović, Shenyang Huang, Farimah Poursafaei, Petar Veličković,
- Abstract要約: 本稿では、時間グラフ上でのグラフリウィリングの最初のアプローチである時間グラフリウィリング(TGR)を提案する。
TGRは、連続時間動的グラフにおいて、時間的に離れたノード間のメッセージパッシングハイウェイを構築する。
tgbl-reviewでは、TGRはベースTGNモデルよりも50.5%改善され、ベースTNCNモデルより22.2%改善されている。
- 参考スコア(独自算出の注目度): 3.468621550644668
- License:
- Abstract: Evolving relations in real-world networks are often modelled by temporal graphs. Temporal Graph Neural Networks (TGNNs) emerged to model evolutionary behaviour of such graphs by leveraging the message passing primitive at the core of Graph Neural Networks (GNNs). It is well-known that GNNs are vulnerable to several issues directly related to the input graph topology, such as under-reaching and over-squashing - we argue that these issues can often get exacerbated in temporal graphs, particularly as the result of stale nodes and edges. While graph rewiring techniques have seen frequent usage in GNNs to make the graph topology more favourable for message passing, they have not seen any mainstream usage on TGNNs. In this work, we propose Temporal Graph Rewiring (TGR), the first approach for graph rewiring on temporal graphs, to the best of our knowledge. TGR constructs message passing highways between temporally distant nodes in a continuous-time dynamic graph by utilizing expander graph propagation, a prominent framework used for graph rewiring on static graphs which makes minimal assumptions on the underlying graph structure. On the challenging TGB benchmark, TGR achieves state-of-the-art results on tgbl-review, tgbl-coin, tgbl-comment and tgbl-flight datasets at the time of writing. For tgbl-review, TGR has 50.5% improvement in MRR over the base TGN model and 22.2% improvement over the base TNCN model. The significant improvement over base models demonstrates clear benefits of temporal graph rewiring.
- Abstract(参考訳): 実世界のネットワークにおける進化関係は、しばしば時間グラフによってモデル化される。
時間的グラフニューラルネットワーク(TGNN)は、グラフニューラルネットワーク(GNN)のコアでメッセージパッシングプリミティブを活用することによって、そのようなグラフの進化的振る舞いをモデル化するために登場した。
GNNは入力グラフトポロジに直接関係するいくつかの問題、例えばアンダーレッシングやオーバースキャッシング(over-squashing)といった問題に対して脆弱であることはよく知られている。
グラフリウィリング技術は、グラフトポロジをメッセージパッシングに好適なものにするために、GNNで頻繁に使用されているが、TGNNではあまり使われていない。
本研究は,時間グラフ上でのグラフリウィリングのための最初のアプローチである時間グラフリウィリング(TGR)を提案する。
TGRは,グラフ構造に最小限の仮定を与える静的グラフ上でグラフをリウィリングする際に用いる顕著なフレームワークである拡張グラフ伝搬を利用して,時間的に離れたノード間のメッセージパッシングハイウェイを連続時間動的グラフ内に構築する。
挑戦的なTGBベンチマークでは、TGRは、書き込み時のtgbl-review、tgbl-coin、tgbl-comment、tgbl-flightデータセットの最先端結果を達成する。
tgbl-reviewでは、TGRはベースTGNモデルよりも50.5%改善され、ベースTNCNモデルより22.2%改善されている。
ベースモデルに対する大幅な改善は、時間グラフの書き換えによる明らかなメリットを示している。
関連論文リスト
- Edge Directionality Improves Learning on Heterophilic Graphs [42.5099159786891]
我々は、有向グラフを深層学習するための新しいフレームワークであるDir-GNN(Directed Graph Neural Network)を紹介する。
Dir-GNNは、任意のメッセージパッシングニューラルネットワーク(MPNN)を拡張して、エッジ指向性情報を考慮するために使用することができる。
我々は,Dir-GNNが従来のMPNNよりも高い指向性Weisfeiler-Lehmanテストの表現性に一致することを証明した。
論文 参考訳(メタデータ) (2023-05-17T18:06:43Z) - Stable and Transferable Hyper-Graph Neural Networks [95.07035704188984]
グラフニューラルネットワーク(GNN)を用いたハイパーグラフでサポートする信号処理アーキテクチャを提案する。
スペクトル類似性により任意のグラフにまたがってGNNの安定性と転送可能性の誤差をバウンドするフレームワークを提供する。
論文 参考訳(メタデータ) (2022-11-11T23:44:20Z) - FoSR: First-order spectral rewiring for addressing oversquashing in GNNs [0.0]
グラフニューラルネットワーク(GNN)は、グラフのエッジに沿ってメッセージを渡すことによって、グラフデータの構造を活用することができる。
本稿では,グラフにエッジを体系的に付加することで過疎化を防止する計算効率のよいアルゴリズムを提案する。
提案アルゴリズムは,いくつかのグラフ分類タスクにおいて,既存のグラフリウィリング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-21T07:58:03Z) - Graph Generative Model for Benchmarking Graph Neural Networks [73.11514658000547]
本稿では,プライバシ制御により実世界のグラフの分布を学習し,再現する新しいグラフ生成モデルを提案する。
我々のモデルは、GNNモデルのベンチマークに効果的に使用できる大規模な実世界のグラフの、プライバシ制御された合成代用をうまく生成することができる。
論文 参考訳(メタデータ) (2022-07-10T06:42:02Z) - Instant Graph Neural Networks for Dynamic Graphs [18.916632816065935]
Instant Graph Neural Network (InstantGNN) を提案する。
提案手法は,時間を要する反復計算を回避し,表現の即時更新と即時予測を可能にする。
本モデルでは,既存手法よりも高精度かつ高次精度で最先端の精度を実現する。
論文 参考訳(メタデータ) (2022-06-03T03:27:42Z) - Transferability Properties of Graph Neural Networks [125.71771240180654]
グラフニューラルネットワーク(GNN)は、中規模グラフでサポートされているデータから表現を学ぶのに成功している。
適度な大きさのグラフ上でGNNを訓練し、それらを大規模グラフに転送する問題について検討する。
その結果, (i) グラフサイズに応じて転送誤差が減少し, (ii) グラフフィルタは非線型性の散乱挙動によってGNNにおいて緩和されるような転送可能性-識別可能性トレードオフを有することがわかった。
論文 参考訳(メタデータ) (2021-12-09T00:08:09Z) - Dirichlet Graph Variational Autoencoder [65.94744123832338]
本稿では,グラフクラスタメンバシップを潜在因子とするDGVAE(Dirichlet Graph Variational Autoencoder)を提案する。
バランスグラフカットにおける低パス特性により、入力グラフをクラスタメンバシップにエンコードする、Heattsと呼ばれるGNNの新しい変種を提案する。
論文 参考訳(メタデータ) (2020-10-09T07:35:26Z) - Rethinking Graph Regularization for Graph Neural Networks [21.32758655943999]
グラフラプラシア正規化は既存のグラフニューラルネットワーク(GNN)にほとんど恩恵を与えないことを示す。
我々は、伝播正則化(P-reg)と呼ばれるグラフラプラシア正則化の単純だが非自明な変種を提案する。
我々はP-regがノードレベルのタスクとグラフレベルのタスクの両方において既存のGNNモデルの性能を効果的に向上できることを実証した。
論文 参考訳(メタデータ) (2020-09-04T07:04:51Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - Gated Graph Recurrent Neural Networks [176.3960927323358]
グラフ処理の一般的な学習フレームワークとしてグラフリカレントニューラルネットワーク(GRNN)を導入する。
勾配の消失問題に対処するため,時間,ノード,エッジゲートの3つの異なるゲーティング機構でGRNNを前進させた。
数値的な結果は、GRNNがGNNやRNNよりも優れており、グラフプロセスの時間構造とグラフ構造の両方を考慮することが重要であることを示している。
論文 参考訳(メタデータ) (2020-02-03T22:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。