論文の概要: Temporal Graph Rewiring with Expander Graphs
- arxiv url: http://arxiv.org/abs/2406.02362v1
- Date: Tue, 4 Jun 2024 14:39:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 15:50:54.772747
- Title: Temporal Graph Rewiring with Expander Graphs
- Title(参考訳): Expander Graphsを用いたテンポラルグラフのリライト
- Authors: Katarina Petrović, Shenyang Huang, Farimah Poursafaei, Petar Veličković,
- Abstract要約: 時間グラフリウィリング(TGR)は、時間グラフ上でグラフをリウィリングするための最初のアプローチである。
TGRは、連続時間動的グラフにおいて、時間的に離れたノード間の通信を可能にする。
我々はTGRが広く使われているTGNモデルの性能を大幅に向上することを示す。
- 参考スコア(独自算出の注目度): 3.468621550644668
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Evolving relations in real-world networks are often modelled by temporal graphs. Graph rewiring techniques have been utilised on Graph Neural Networks (GNNs) to improve expressiveness and increase model performance. In this work, we propose Temporal Graph Rewiring (TGR), the first approach for graph rewiring on temporal graphs. TGR enables communication between temporally distant nodes in a continuous time dynamic graph by utilising expander graph propagation to construct a message passing highway for message passing between distant nodes. Expander graphs are suitable candidates for rewiring as they help overcome the oversquashing problem often observed in GNNs. On the public tgbl-wiki benchmark, we show that TGR improves the performance of a widely used TGN model by a significant margin. Our code repository is accessible at https://anonymous.4open.science/r/TGR-254C.
- Abstract(参考訳): 実世界のネットワークにおける進化関係は、しばしば時間グラフによってモデル化される。
グラフニューラルネットワーク(GNN)では,表現性の向上とモデル性能の向上のためにグラフ再配線技術が利用されている。
本研究では,時間グラフ上でのグラフリウィリングの最初のアプローチである時間グラフリウィリング(TGR)を提案する。
TGRは,遠隔ノード間のメッセージパッシングのためのメッセージパッシングハイウェイを構築するために,拡張グラフの伝搬を利用して,時間的に離れたノード間の通信を可能にする。
エクスパンダーグラフは、GNNでよく見られる過度な問題を克服するのに役立つため、再配線に適した候補である。
tgbl-wikiベンチマークでは、TGRが広く使われているTGNモデルの性能を大幅に向上することを示した。
コードリポジトリはhttps://anonymous.4open.science/r/TGR-254Cでアクセスできます。
関連論文リスト
- Edge Directionality Improves Learning on Heterophilic Graphs [42.5099159786891]
我々は、有向グラフを深層学習するための新しいフレームワークであるDir-GNN(Directed Graph Neural Network)を紹介する。
Dir-GNNは、任意のメッセージパッシングニューラルネットワーク(MPNN)を拡張して、エッジ指向性情報を考慮するために使用することができる。
我々は,Dir-GNNが従来のMPNNよりも高い指向性Weisfeiler-Lehmanテストの表現性に一致することを証明した。
論文 参考訳(メタデータ) (2023-05-17T18:06:43Z) - Stable and Transferable Hyper-Graph Neural Networks [95.07035704188984]
グラフニューラルネットワーク(GNN)を用いたハイパーグラフでサポートする信号処理アーキテクチャを提案する。
スペクトル類似性により任意のグラフにまたがってGNNの安定性と転送可能性の誤差をバウンドするフレームワークを提供する。
論文 参考訳(メタデータ) (2022-11-11T23:44:20Z) - FoSR: First-order spectral rewiring for addressing oversquashing in GNNs [0.0]
グラフニューラルネットワーク(GNN)は、グラフのエッジに沿ってメッセージを渡すことによって、グラフデータの構造を活用することができる。
本稿では,グラフにエッジを体系的に付加することで過疎化を防止する計算効率のよいアルゴリズムを提案する。
提案アルゴリズムは,いくつかのグラフ分類タスクにおいて,既存のグラフリウィリング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-21T07:58:03Z) - Graph Generative Model for Benchmarking Graph Neural Networks [73.11514658000547]
本稿では,プライバシ制御により実世界のグラフの分布を学習し,再現する新しいグラフ生成モデルを提案する。
我々のモデルは、GNNモデルのベンチマークに効果的に使用できる大規模な実世界のグラフの、プライバシ制御された合成代用をうまく生成することができる。
論文 参考訳(メタデータ) (2022-07-10T06:42:02Z) - Instant Graph Neural Networks for Dynamic Graphs [18.916632816065935]
Instant Graph Neural Network (InstantGNN) を提案する。
提案手法は,時間を要する反復計算を回避し,表現の即時更新と即時予測を可能にする。
本モデルでは,既存手法よりも高精度かつ高次精度で最先端の精度を実現する。
論文 参考訳(メタデータ) (2022-06-03T03:27:42Z) - Transferability Properties of Graph Neural Networks [125.71771240180654]
グラフニューラルネットワーク(GNN)は、中規模グラフでサポートされているデータから表現を学ぶのに成功している。
適度な大きさのグラフ上でGNNを訓練し、それらを大規模グラフに転送する問題について検討する。
その結果, (i) グラフサイズに応じて転送誤差が減少し, (ii) グラフフィルタは非線型性の散乱挙動によってGNNにおいて緩和されるような転送可能性-識別可能性トレードオフを有することがわかった。
論文 参考訳(メタデータ) (2021-12-09T00:08:09Z) - Dirichlet Graph Variational Autoencoder [65.94744123832338]
本稿では,グラフクラスタメンバシップを潜在因子とするDGVAE(Dirichlet Graph Variational Autoencoder)を提案する。
バランスグラフカットにおける低パス特性により、入力グラフをクラスタメンバシップにエンコードする、Heattsと呼ばれるGNNの新しい変種を提案する。
論文 参考訳(メタデータ) (2020-10-09T07:35:26Z) - Rethinking Graph Regularization for Graph Neural Networks [21.32758655943999]
グラフラプラシア正規化は既存のグラフニューラルネットワーク(GNN)にほとんど恩恵を与えないことを示す。
我々は、伝播正則化(P-reg)と呼ばれるグラフラプラシア正則化の単純だが非自明な変種を提案する。
我々はP-regがノードレベルのタスクとグラフレベルのタスクの両方において既存のGNNモデルの性能を効果的に向上できることを実証した。
論文 参考訳(メタデータ) (2020-09-04T07:04:51Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - Gated Graph Recurrent Neural Networks [176.3960927323358]
グラフ処理の一般的な学習フレームワークとしてグラフリカレントニューラルネットワーク(GRNN)を導入する。
勾配の消失問題に対処するため,時間,ノード,エッジゲートの3つの異なるゲーティング機構でGRNNを前進させた。
数値的な結果は、GRNNがGNNやRNNよりも優れており、グラフプロセスの時間構造とグラフ構造の両方を考慮することが重要であることを示している。
論文 参考訳(メタデータ) (2020-02-03T22:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。