論文の概要: Neural Common Neighbor with Completion for Link Prediction
- arxiv url: http://arxiv.org/abs/2302.00890v3
- Date: Fri, 3 May 2024 06:39:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-06 18:35:59.247000
- Title: Neural Common Neighbor with Completion for Link Prediction
- Title(参考訳): リンク予測を補完したニューラルコモン近隣
- Authors: Xiyuan Wang, Haotong Yang, Muhan Zhang,
- Abstract要約: 我々は,MPNNの表現プーリングを誘導する構造的特徴(SF)を活用した革新的なアーキテクチャであるMPNN-then-SFを紹介する。
グラフの不完全性が SF に与える影響について検討する。
この問題に対処するために、リンク予測モデルを用いて、一般的な隣り合う構造を完成させる手法を提案する。
- 参考スコア(独自算出の注目度): 25.871382203332903
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose a novel link prediction model and further boost it by studying graph incompleteness. First, we introduce MPNN-then-SF, an innovative architecture leveraging structural feature (SF) to guide MPNN's representation pooling, with its implementation, namely Neural Common Neighbor (NCN). NCN exhibits superior expressiveness and scalability compared with existing models, which can be classified into two categories: SF-then-MPNN, augmenting MPNN's input with SF, and SF-and-MPNN, decoupling SF and MPNN. Second, we investigate the impact of graph incompleteness -- the phenomenon that some links are unobserved in the input graph -- on SF, like the common neighbor. Through dataset visualization, we observe that incompleteness reduces common neighbors and induces distribution shifts, significantly affecting model performance. To address this issue, we propose to use a link prediction model to complete the common neighbor structure. Combining this method with NCN, we propose Neural Common Neighbor with Completion (NCNC). NCN and NCNC outperform recent strong baselines by large margins, and NCNC further surpasses state-of-the-art models in standard link prediction benchmarks. Our code is available at https://github.com/GraphPKU/NeuralCommonNeighbor.
- Abstract(参考訳): 本研究では,新しいリンク予測モデルを提案し,グラフの不完全性の研究によりさらに促進する。
まず、構造的特徴(SF)を活用する革新的なアーキテクチャであるMPNN-then-SFを紹介し、MPNNの表現プールを誘導する。
NCNは既存のモデルと比較して優れた表現性とスケーラビリティを示しており、SF-then-MPNN、SF-and-MPNN、SFとMPNNを分離するSF-and-MPNNの2つのカテゴリに分類される。
第二に、グラフの不完全性(いくつかのリンクが入力グラフで観測されていない現象)が、一般的な隣人のようにSFに与える影響について検討する。
データセットの可視化により、不完全性は一般的な隣り合いを減らし、分布シフトを誘導し、モデルの性能に著しく影響を及ぼす。
この問題に対処するために、リンク予測モデルを用いて、一般的な隣り合う構造を完成させる手法を提案する。
この手法とNCNを組み合わせることで、NCNC(Neural Common Neighbor with Completion)を提案する。
NCNとNCNCは最近の強力なベースラインを大きなマージンで上回り、NCNCは標準リンク予測ベンチマークの最先端モデルをさらに上回っている。
私たちのコードはhttps://github.com/GraphPKU/NeuralCommonNeighbor.orgから入手可能です。
関連論文リスト
- PROXI: Challenging the GNNs for Link Prediction [3.8233569758620063]
本稿では,グラフと属性空間の両方におけるノードペアの近接情報を活用するPROXIを紹介する。
標準機械学習(ML)モデルは競争力があり、最先端のGNNモデルよりも優れています。
ProXIによる従来のGNNの拡張はリンク予測性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:57:38Z) - Efficient Neural Common Neighbor for Temporal Graph Link Prediction [32.41660611941389]
本稿では、時間グラフにおけるリンク予測のためのNCN(Neural Common Neighbor)の時間バージョンであるTNCNを提案する。
TNCNは、各ノードの時間的隣接辞書を動的に更新し、ソースとターゲットノード間のマルチホップ共通辞書を使用して、より効果的なペアワイズ表現を学習する。
5つの大規模実世界のデータセットでモデルを検証し、それらのうち3つで新たな最先端のパフォーマンスを実現することを発見した。
論文 参考訳(メタデータ) (2024-06-12T06:45:03Z) - Learning Scalable Structural Representations for Link Prediction with
Bloom Signatures [39.63963077346406]
グラフニューラルネットワーク(GNN)は、リンク予測タスクでサブ最適に実行されることが知られている。
本稿では,Bloomシグネチャを用いたGNNのメッセージパッシングフレームワークを拡張し,構造的リンク表現の学習を提案する。
提案モデルでは,既存のエッジワイドGNNモデルと同等あるいは優れた性能を実現している。
論文 参考訳(メタデータ) (2023-12-28T02:21:40Z) - Pure Message Passing Can Estimate Common Neighbor for Link Prediction [25.044734252779975]
CN(Common Neighbor)の近似におけるMPNNの習熟度について検討する。
本稿では,新しいリンク予測モデルであるMPLP(Message Passing Link Predictor)を紹介する。
論文 参考訳(メタデータ) (2023-09-02T16:20:41Z) - When Do Graph Neural Networks Help with Node Classification?
Investigating the Impact of Homophily Principle on Node Distinguishability [92.8279562472538]
ホモフィリー原理は、ノード分類タスクにおけるニューラルネットワークよりもグラフネットワーク(GNN)の性能上の優位性の主要な理由であると考えられている。
最近の研究は、ホモフィリーがなくても、同じクラスのノードが類似した近隣パターンを共有する限り、GNNの利点は依然として存在することを示唆している。
論文 参考訳(メタデータ) (2023-04-25T09:40:47Z) - Graph Neural Networks are Inherently Good Generalizers: Insights by
Bridging GNNs and MLPs [71.93227401463199]
本稿では、P(ropagational)MLPと呼ばれる中間モデルクラスを導入することにより、GNNの性能向上を本質的な能力に向ける。
PMLPは、トレーニングにおいてはるかに効率的でありながら、GNNと同等(あるいはそれ以上)に動作することを観察する。
論文 参考訳(メタデータ) (2022-12-18T08:17:32Z) - MGDCF: Distance Learning via Markov Graph Diffusion for Neural
Collaborative Filtering [96.65234340724237]
現状のGNNベースCFモデルとコンテキスト符号化に基づく従来の1層NRLモデルとの等価性を示す。
マルコフグラフ拡散協調フィルタ (MGDCF) を用いて, 最先端のGNNベースCFモデルを一般化する。
論文 参考訳(メタデータ) (2022-04-05T17:24:32Z) - BScNets: Block Simplicial Complex Neural Networks [79.81654213581977]
グラフ学習における最新の方向性として、SNN(Simplicial Neural Network)が最近登場した。
リンク予測のためのBlock Simplicial Complex Neural Networks (BScNets) モデルを提案する。
BScNetsは、コストを抑えながら最先端のモデルよりも大きなマージンを保っている。
論文 参考訳(メタデータ) (2021-12-13T17:35:54Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Bilinear Graph Neural Network with Neighbor Interactions [106.80781016591577]
グラフニューラルネットワーク(GNN)は,グラフデータ上で表現を学習し,予測を行う強力なモデルである。
本稿では,グラフ畳み込み演算子を提案し,隣接するノードの表現の対の相互作用で重み付け和を増大させる。
このフレームワークをBGNN(Bilinear Graph Neural Network)と呼び、隣ノード間の双方向相互作用によるGNN表現能力を向上させる。
論文 参考訳(メタデータ) (2020-02-10T06:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。