論文の概要: Time-aware Graph Structure Learning via Sequence Prediction on Temporal
Graphs
- arxiv url: http://arxiv.org/abs/2306.07699v2
- Date: Tue, 15 Aug 2023 09:03:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-16 16:30:07.235500
- Title: Time-aware Graph Structure Learning via Sequence Prediction on Temporal
Graphs
- Title(参考訳): 時系列予測による時間認識型グラフ構造学習
- Authors: Haozhen Zhang, Xueting Han, Xi Xiao, Jing Bai
- Abstract要約: 時系列グラフのシーケンス予測による時間認識型グラフ構造学習(TGSL)手法を提案する。
特に、タイムアウェアなコンテキスト埋め込みを予測し、Gumble-Top-Kを使用して、このコンテキスト埋め込みに最も近い候補エッジを選択する。
時間リンク予測ベンチマークの実験は、TGSLがTGATやGraphMixerのような一般的なTGNに対して大きな利益をもたらすことを示した。
- 参考スコア(独自算出の注目度): 10.034072706245544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporal Graph Learning, which aims to model the time-evolving nature of
graphs, has gained increasing attention and achieved remarkable performance
recently. However, in reality, graph structures are often incomplete and noisy,
which hinders temporal graph networks (TGNs) from learning informative
representations. Graph contrastive learning uses data augmentation to generate
plausible variations of existing data and learn robust representations.
However, rule-based augmentation approaches may be suboptimal as they lack
learnability and fail to leverage rich information from downstream tasks. To
address these issues, we propose a Time-aware Graph Structure Learning (TGSL)
approach via sequence prediction on temporal graphs, which learns better graph
structures for downstream tasks through adding potential temporal edges. In
particular, it predicts time-aware context embedding based on previously
observed interactions and uses the Gumble-Top-K to select the closest candidate
edges to this context embedding. Additionally, several candidate sampling
strategies are proposed to ensure both efficiency and diversity. Furthermore,
we jointly learn the graph structure and TGNs in an end-to-end manner and
perform inference on the refined graph. Extensive experiments on temporal link
prediction benchmarks demonstrate that TGSL yields significant gains for the
popular TGNs such as TGAT and GraphMixer, and it outperforms other contrastive
learning methods on temporal graphs. We release the code at
https://github.com/ViktorAxelsen/TGSL.
- Abstract(参考訳): 時間発展するグラフの性質をモデル化することを目的としたテンポラリグラフ学習が注目され,近年,目覚ましい成果を上げている。
しかし、実際には、グラフ構造は不完全でノイズが多いため、時間グラフネットワーク(TGN)が情報表現の学習を妨げる。
グラフコントラスト学習は、データ拡張を使用して、既存のデータの妥当なバリエーションを生成し、堅牢な表現を学ぶ。
しかし、ルールベースの拡張アプローチは学習性に欠け、下流タスクからの豊富な情報を活用することができないため、最適ではない。
これらの問題に対処するために,時系列グラフのシーケンス予測によるtgsl(time-aware graph structure learning)アプローチを提案する。
特に、前回観測された相互作用に基づいて時間認識のコンテキスト埋め込みを予測し、Gumble-Top-Kを用いて、このコンテキスト埋め込みに最も近い候補エッジを選択する。
さらに、効率性と多様性を確保するために、いくつかの候補サンプリング戦略が提案されている。
さらに、グラフ構造とTGNをエンドツーエンドで共同で学習し、洗練されたグラフ上で推論を行う。
TGSLはTGATやGraphMixerのような一般的なTGNに対して大きな利益をもたらし、時間グラフ上の他のコントラスト学習手法よりも優れていることを示す。
コードをhttps://github.com/ViktorAxelsen/TGSLでリリースします。
関連論文リスト
- A Topology-aware Graph Coarsening Framework for Continual Graph Learning [8.136809136959302]
グラフに関する継続的な学習は、グラフデータがストリーミング形式で到着するグラフニューラルネットワーク(GNN)のトレーニングに対処する。
Experience Replayのような従来の継続的学習戦略は、ストリーミンググラフに適応することができる。
本稿では, TA$mathbbCO$, a (t)opology-(a)ware graph (co)arsening and (co)ntinual learning frameworkを提案する。
論文 参考訳(メタデータ) (2024-01-05T22:22:13Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - Sparsity exploitation via discovering graphical models in multi-variate
time-series forecasting [1.2762298148425795]
本稿では,グラフ生成モジュールとGNN予測モジュールを含む分離学習手法を提案する。
まず、Graphical Lasso(またはGraphLASSO)を使用して、データから空間パターンを直接利用してグラフ構造を構築します。
次に、これらのグラフ構造と入力データをGCRN(Graph Convolutional Recurrent Network)に適合させて予測モデルをトレーニングする。
論文 参考訳(メタデータ) (2023-06-29T16:48:00Z) - Deep Temporal Graph Clustering [77.02070768950145]
深部時間グラフクラスタリング(GC)のための汎用フレームワークを提案する。
GCは、時間グラフの相互作用シーケンスに基づくバッチ処理パターンに適合するディープクラスタリング技術を導入している。
我々のフレームワークは、既存の時間グラフ学習手法の性能を効果的に向上させることができる。
論文 参考訳(メタデータ) (2023-05-18T06:17:50Z) - Graph-Free Learning in Graph-Structured Data: A More Efficient and
Accurate Spatiotemporal Learning Perspective [11.301939428860404]
本稿では,グラフ時間学習における空間相関を捉えるための正規化のためのグラフ自由学習モジュールを提案する。
厳密な理論的な証明は、時間複雑性が提案されたグラフ畳み込み演算よりもはるかに優れていることを証明している。
論文 参考訳(メタデータ) (2023-01-27T14:26:11Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - Iterative Deep Graph Learning for Graph Neural Networks: Better and
Robust Node Embeddings [53.58077686470096]
グラフ構造とグラフ埋め込みを協調的かつ反復的に学習するための、エンドツーエンドのグラフ学習フレームワーク、すなわち、IDGL(Iterative Deep Graph Learning)を提案する。
実験の結果,提案したIDGLモデルは,最先端のベースラインを一貫して上回る,あるいは一致させることができることがわかった。
論文 参考訳(メタデータ) (2020-06-21T19:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。