論文の概要: Higher-order Structure Boosts Link Prediction on Temporal Graphs
- arxiv url: http://arxiv.org/abs/2505.15746v1
- Date: Wed, 21 May 2025 16:51:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.787566
- Title: Higher-order Structure Boosts Link Prediction on Temporal Graphs
- Title(参考訳): 時間グラフ上のリンク予測を高速化する高次構造
- Authors: Jingzhe Liu, Zhigang Hua, Yan Xie, Bingheng Li, Harry Shomer, Yu Song, Kaveh Hassani, Jiliang Tang,
- Abstract要約: 時間グラフニューラルネットワーク(TGNN)は,時間グラフの構造をモデル化し,予測するために注目を集めている。
本稿では,ハイパーグラフ表現を時間グラフ学習に組み込んだ高次構造時間グラフニューラルネットワークを提案する。
HTGNは,従来の手法と比較してメモリコストを最大50%削減しながら,動的リンク予測において優れた性能を発揮することを示す。
- 参考スコア(独自算出の注目度): 33.483289891869426
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Temporal Graph Neural Networks (TGNNs) have gained growing attention for modeling and predicting structures in temporal graphs. However, existing TGNNs primarily focus on pairwise interactions while overlooking higher-order structures that are integral to link formation and evolution in real-world temporal graphs. Meanwhile, these models often suffer from efficiency bottlenecks, further limiting their expressive power. To tackle these challenges, we propose a Higher-order structure Temporal Graph Neural Network, which incorporates hypergraph representations into temporal graph learning. In particular, we develop an algorithm to identify the underlying higher-order structures, enhancing the model's ability to capture the group interactions. Furthermore, by aggregating multiple edge features into hyperedge representations, HTGN effectively reduces memory cost during training. We theoretically demonstrate the enhanced expressiveness of our approach and validate its effectiveness and efficiency through extensive experiments on various real-world temporal graphs. Experimental results show that HTGN achieves superior performance on dynamic link prediction while reducing memory costs by up to 50\% compared to existing methods.
- Abstract(参考訳): 時間グラフニューラルネットワーク(TGNN)は,時間グラフの構造をモデル化し,予測するために注目を集めている。
しかし、既存のTGNNは、実世界の時間グラフにおける形成と進化のリンクに不可欠な高次構造を見下ろしながら、ペアワイズな相互作用に重点を置いている。
一方、これらのモデルは効率のボトルネックに悩まされ、表現力はさらに制限される。
これらの課題に対処するために,ハイパーグラフ表現を時間グラフ学習に組み込んだ高次構造時間グラフニューラルネットワークを提案する。
特に,基礎となる高次構造を同定するアルゴリズムを開発し,グループ間相互作用を捕捉するモデルの能力を高める。
さらに、複数のエッジ機能をハイパーエッジ表現に集約することで、HTGNはトレーニング中のメモリコストを効果的に削減する。
理論的には,提案手法の表現性の向上を実証し,実世界の時間グラフに関する広範な実験を通じて,その有効性と有効性を検証する。
実験結果から,HTGNは従来の手法に比べて最大50倍のメモリコスト削減を実現し,動的リンク予測に優れた性能を発揮することが示された。
関連論文リスト
- ScaDyG:A New Paradigm for Large-scale Dynamic Graph Learning [31.629956388962814]
ScaDyGは動的グラフネットワークのためのタイムアウェアなスケーラブルな学習パラダイムである。
12のデータセットの実験では、ScaDyGは、ノードレベルとリンクレベルの両方の下流タスクにおいて、互換性のあるパフォーマンス、あるいは他のSOTAメソッドよりも優れています。
論文 参考訳(メタデータ) (2025-01-27T12:39:16Z) - Input Snapshots Fusion for Scalable Discrete-Time Dynamic Graph Neural Networks [27.616083395612595]
本稿では,Hawkesプロセスとグラフニューラルネットワークを組み合わせることで,動的グラフの時間的および構造的パターンを効果的に捉えるSFDyGを提案する。
複数のスナップショットを1つの時間グラフに融合することで、SFDyGはスナップショットの数から計算複雑性を分離し、効率的なフルバッチとミニバッチのトレーニングを可能にする。
論文 参考訳(メタデータ) (2024-05-11T10:05:55Z) - Deep Temporal Graph Clustering [77.02070768950145]
深部時間グラフクラスタリング(GC)のための汎用フレームワークを提案する。
GCは、時間グラフの相互作用シーケンスに基づくバッチ処理パターンに適合するディープクラスタリング技術を導入している。
我々のフレームワークは、既存の時間グラフ学習手法の性能を効果的に向上させることができる。
論文 参考訳(メタデータ) (2023-05-18T06:17:50Z) - Towards Expressive Spectral-Temporal Graph Neural Networks for Time Series Forecasting [101.5022396668152]
スペクトル時間グラフニューラルネットワークは、ほとんどの時系列予測モデルの基礎となる、有望な抽象化である。
我々は、スペクトル時間GNNの表現力を高める理論的枠組みを確立する。
本研究は,GNNをベースとした時系列モデルにおいて,より広範に表現可能なGNNモデルを考案するための道筋をたどるものである。
論文 参考訳(メタデータ) (2023-05-11T05:56:38Z) - Dynamic Graph Representation Learning via Edge Temporal States Modeling and Structure-reinforced Transformer [5.093187534912688]
本稿では,動的グラフ表現学習のための新しいフレームワークであるRecurrent Structure-Reinforced Graph Transformer (RSGT)を紹介する。
RSGTは、繰り返し学習パラダイムを通じて、グラフトポロジと進化力学の両方をコードする時間ノード表現をキャプチャする。
離散動的グラフ表現学習におけるRSGTの優れた性能を示し、動的リンク予測タスクにおける既存の手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-04-20T04:12:50Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z) - Efficient-Dyn: Dynamic Graph Representation Learning via Event-based
Temporal Sparse Attention Network [2.0047096160313456]
動的グラフニューラルネットワークは、研究者からますます注目を集めている。
本稿では,新しい動的グラフニューラルネットワークであるEfficient-Dynを提案する。
時間的情報を同じ量の時間的トポロジ的構造を持つパッチのシーケンスに適応的に符号化する。
論文 参考訳(メタデータ) (2022-01-04T23:52:24Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。