論文の概要: Graph Sequential Neural ODE Process for Link Prediction on Dynamic and
Sparse Graphs
- arxiv url: http://arxiv.org/abs/2211.08568v1
- Date: Tue, 15 Nov 2022 23:21:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 16:44:15.268130
- Title: Graph Sequential Neural ODE Process for Link Prediction on Dynamic and
Sparse Graphs
- Title(参考訳): ダイナミックグラフとスパースグラフのリンク予測のためのグラフシーケンスニューラルODEプロセス
- Authors: Linhao Luo, Reza Haffari, Shirui Pan
- Abstract要約: 動的グラフ上のリンク予測は、グラフマイニングにおいて重要な課題である。
動的グラフニューラルネットワーク(DGNN)に基づく既存のアプローチは通常、かなりの量の履歴データを必要とする。
グラフシークエンシャルニューラルネットワークプロセス(GSNOP)と呼ばれる,ニューラルプロセスに基づく新しい手法を提案する。
- 参考スコア(独自算出の注目度): 33.294977897987685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Link prediction on dynamic graphs is an important task in graph mining.
Existing approaches based on dynamic graph neural networks (DGNNs) typically
require a significant amount of historical data (interactions over time), which
is not always available in practice. The missing links over time, which is a
common phenomenon in graph data, further aggravates the issue and thus creates
extremely sparse and dynamic graphs. To address this problem, we propose a
novel method based on the neural process, called Graph Sequential Neural ODE
Process (GSNOP). Specifically, GSNOP combines the advantage of the neural
process and neural ordinary differential equation that models the link
prediction on dynamic graphs as a dynamic-changing stochastic process. By
defining a distribution over functions, GSNOP introduces the uncertainty into
the predictions, making it generalize to more situations instead of overfitting
to the sparse data. GSNOP is also agnostic to model structures that can be
integrated with any DGNN to consider the chronological and geometrical
information for link prediction. Extensive experiments on three dynamic graph
datasets show that GSNOP can significantly improve the performance of existing
DGNNs and outperform other neural process variants.
- Abstract(参考訳): 動的グラフのリンク予測はグラフマイニングにおいて重要なタスクである。
動的グラフニューラルネットワーク(DGNN)に基づく既存のアプローチは、通常、大量の履歴データ(時間的相互作用)を必要とするが、実際には必ずしも利用できない。
グラフデータに共通する現象であるリンクの欠落は、さらに問題を悪化させ、非常にスパースでダイナミックなグラフを生成する。
この問題に対処するため,本手法はgraph sequential neural ode process (gsnop)と呼ばれるニューラルプロセスに基づく新しい手法を提案する。
特に、GSNOPは、動的に変化する確率過程として動的グラフ上のリンク予測をモデル化する神経過程と神経常微分方程式の利点を組み合わせる。
関数上の分布を定義することで、GSNOPは予測に不確実性を導入し、スパースデータに過度に適合するのではなく、より多くの状況に一般化する。
GSNOPはまた、リンク予測のための時系列および幾何学的情報を考えるために、任意のDGNNと統合できるモデル構造にも依存しない。
3つの動的グラフデータセットに対する大規模な実験により、GSNOPは既存のDGNNの性能を大幅に改善し、他のニューラルプロセスの亜種よりも優れていることが示された。
関連論文リスト
- Gradient Transformation: Towards Efficient and Model-Agnostic Unlearning for Dynamic Graph Neural Networks [66.70786325911124]
グラフアンラーニングは、ユーザのプライバシ保護と、望ましくないデータによるネガティブな影響軽減に不可欠なツールとして登場した。
DGNNの普及に伴い、動的グラフアンラーニングの実装を検討することが不可欠となる。
DGNNアンラーニングを実装するために,効率的,効率的,モデルに依存しない,事後処理手法を提案する。
論文 参考訳(メタデータ) (2024-05-23T10:26:18Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Explaining Dynamic Graph Neural Networks via Relevance Back-propagation [8.035521056416242]
グラフニューラルネットワーク(GNN)は、グラフ構造化データにおいて、豊富な情報を捕捉する際、顕著な効果を示した。
GNNのブラックボックスの性質は、モデルの理解と信頼を妨げるため、アプリケーションに困難をもたらす。
本稿ではDGExplainerを提案し,動的GNNの信頼性について説明する。
論文 参考訳(メタデータ) (2022-07-22T16:20:34Z) - Instant Graph Neural Networks for Dynamic Graphs [18.916632816065935]
Instant Graph Neural Network (InstantGNN) を提案する。
提案手法は,時間を要する反復計算を回避し,表現の即時更新と即時予測を可能にする。
本モデルでは,既存手法よりも高精度かつ高次精度で最先端の精度を実現する。
論文 参考訳(メタデータ) (2022-06-03T03:27:42Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Adaptive Kernel Graph Neural Network [21.863238974404474]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
論文 参考訳(メタデータ) (2021-12-08T20:23:58Z) - Hyperbolic Variational Graph Neural Network for Modeling Dynamic Graphs [77.33781731432163]
我々は,ノード表現の推論を目的とした双曲空間における動的グラフ表現を初めて学習する。
本稿では,HVGNNと呼ばれる新しいハイパーボリック変動グラフネットワークを提案する。
特に,動力学をモデル化するために,理論的に接地した時間符号化手法に基づく時間gnn(tgnn)を導入する。
論文 参考訳(メタデータ) (2021-04-06T01:44:15Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Stochastic Graph Recurrent Neural Network [6.656993023468793]
本稿では,ノード属性とトポロジの進化を同時に捉えるために潜時変数を適用した新しいニューラルアーキテクチャであるSGRNNを提案する。
具体的には、決定論的状態は、相互干渉を抑制する反復過程において状態から分離される。
実世界のデータセットを用いた実験により,提案モデルの有効性が示された。
論文 参考訳(メタデータ) (2020-09-01T16:14:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。