論文の概要: Link Prediction without Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2305.13656v1
- Date: Tue, 23 May 2023 03:59:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 19:13:11.566436
- Title: Link Prediction without Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークによるリンク予測
- Authors: Zexi Huang, Mert Kosan, Arlei Silva, Ambuj Singh
- Abstract要約: リンク予測は多くのグラフアプリケーションにおいて基本的なタスクである。
グラフニューラルネットワーク(GNN)がリンク予測の主要なフレームワークとなっている。
グラフ学習による属性情報によって強化されたグラフにトポロジ中心のフレームワークを適用する新しいフレームワークであるGelatoを提案する。
- 参考スコア(独自算出の注目度): 7.436429318051601
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Link prediction, which consists of predicting edges based on graph features,
is a fundamental task in many graph applications. As for several related
problems, Graph Neural Networks (GNNs), which are based on an attribute-centric
message-passing paradigm, have become the predominant framework for link
prediction. GNNs have consistently outperformed traditional topology-based
heuristics, but what contributes to their performance? Are there simpler
approaches that achieve comparable or better results? To answer these
questions, we first identify important limitations in how GNN-based link
prediction methods handle the intrinsic class imbalance of the problem -- due
to the graph sparsity -- in their training and evaluation. Moreover, we propose
Gelato, a novel topology-centric framework that applies a topological heuristic
to a graph enhanced by attribute information via graph learning. Our model is
trained end-to-end with an N-pair loss on an unbiased training set to address
class imbalance. Experiments show that Gelato is 145% more accurate, trains 11
times faster, infers 6,000 times faster, and has less than half of the
trainable parameters compared to state-of-the-art GNNs for link prediction.
- Abstract(参考訳): グラフの特徴に基づいてエッジを予測するリンク予測は、多くのグラフアプリケーションにおいて基本的なタスクである。
いくつかの関連する問題に関して、属性中心のメッセージパッシングパラダイムに基づくグラフニューラルネットワーク(GNN)がリンク予測の主要なフレームワークとなっている。
gnnは従来のトポロジベースのヒューリスティックを一貫して上回っているが、パフォーマンスに何をもたらすのか?
同等あるいはより良い結果を達成するシンプルなアプローチはありますか?
これらの質問に答えるために、まず、gnnベースのリンク予測手法が、そのトレーニングと評価において、問題の本質的なクラス不均衡をどのように扱うか、という重要な制限を特定します。
さらに,グラフ学習による属性情報によって強化されたグラフにトポロジカルヒューリスティックを適用した新しいトポロジ中心のフレームワークであるGelatoを提案する。
我々のモデルは、クラス不均衡に対処する非バイアスのトレーニングセットに対して、N対損失でエンドツーエンドにトレーニングされる。
実験の結果、ジェラトは145%の精度で、列車は11倍速く、6,000倍の速度で推算でき、また、現在のGNNに比べてトレーニング可能なパラメータの半分以下であることがわかった。
関連論文リスト
- Two Heads Are Better Than One: Boosting Graph Sparse Training via
Semantic and Topological Awareness [80.87683145376305]
グラフニューラルネットワーク(GNN)は、様々なグラフ学習タスクに優れるが、大規模グラフに適用した場合、計算上の課題に直面している。
データレベルで空間を動的に操作するグラフスパーストレーニング(GST)を提案する。
GSTは、最大位相整合性と性能劣化のないスパースグラフを生成する。
論文 参考訳(メタデータ) (2024-02-02T09:10:35Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Robust Graph Neural Network based on Graph Denoising [10.564653734218755]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータセットを扱う学習問題に対して、悪名高い代替手段として登場した。
本研究は,観測トポロジにおける摂動の存在を明示的に考慮した,GNNの堅牢な実装を提案する。
論文 参考訳(メタデータ) (2023-12-11T17:43:57Z) - Self-Pro: A Self-Prompt and Tuning Framework for Graph Neural Networks [10.794305560114903]
Self-Promptは、モデルとデータ自体に基づいたグラフのプロンプトフレームワークである。
非対称なグラフコントラスト学習を導入し、不均質に対処し、プリテキストと下流タスクの目的を整合させる。
11のベンチマークデータセットに対する広範な実験を行い、その優位性を実証する。
論文 参考訳(メタデータ) (2023-10-16T12:58:04Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - How Neural Processes Improve Graph Link Prediction [35.652234989200956]
リンク予測のためのグラフニューラルネットワークを用いたメタラーニング手法:グラフニューラルネットワークのためのニューラルプロセス(NPGNN)を提案する。
NPGNNは、トランスダクティブな学習タスクとインダクティブな学習タスクの両方を実行し、小さなサブグラフでトレーニングした後、大きな新しいグラフのパターンに適応することができる。
論文 参考訳(メタデータ) (2021-09-30T07:35:13Z) - Very Deep Graph Neural Networks Via Noise Regularisation [57.450532911995516]
グラフニューラルネットワーク(GNN)は、入力グラフを介して学習されたメッセージパッシングを実行する。
最大100のメッセージパッシングステップを持つディープGNNをトレーニングし、いくつかの最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-15T08:50:10Z) - Learning to Extrapolate Knowledge: Transductive Few-shot Out-of-Graph
Link Prediction [69.1473775184952]
数発のアウトオブグラフリンク予測という現実的な問題を導入する。
我々は,新しいメタ学習フレームワークによってこの問題に対処する。
我々は,知識グラフの補完と薬物と薬物の相互作用予測のために,複数のベンチマークデータセット上でモデルを検証した。
論文 参考訳(メタデータ) (2020-06-11T17:42:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。