論文の概要: Neural Common Neighbor with Completion for Link Prediction
- arxiv url: http://arxiv.org/abs/2302.00890v2
- Date: Tue, 18 Apr 2023 15:40:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 17:45:42.125425
- Title: Neural Common Neighbor with Completion for Link Prediction
- Title(参考訳): リンク予測のための補完付きニューラルコモン近傍
- Authors: Xiyuan Wang, Haotong Yang, Muhan Zhang
- Abstract要約: 学習可能なペアワイズ表現を用いたニューラルコモンネバー(NCN)を提案する。
また、未観測リンク問題についても検討する。
NCNとNCNCは、最近の強いベースラインを大きなマージンで上回っている。
- 参考スコア(独自算出の注目度): 8.121462458089141
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite its outstanding performance in various graph tasks, vanilla Message
Passing Neural Network (MPNN) usually fails in link prediction tasks, as it
only uses representations of two individual target nodes and ignores the
pairwise relation between them. To capture the pairwise relations, some models
add manual features to the input graph and use the output of MPNN to produce
pairwise representations. In contrast, others directly use manual features as
pairwise representations. Though this simplification avoids applying a GNN to
each link individually and thus improves scalability, these models still have
much room for performance improvement due to the hand-crafted and unlearnable
pairwise features. To upgrade performance while maintaining scalability, we
propose Neural Common Neighbor (NCN), which uses learnable pairwise
representations. To further boost NCN, we study the unobserved link problem.
The incompleteness of the graph is ubiquitous and leads to distribution shifts
between the training and test set, loss of common neighbor information, and
performance degradation of models. Therefore, we propose two intervention
methods: common neighbor completion and target link removal. Combining the two
methods with NCN, we propose Neural Common Neighbor with Completion (NCNC). NCN
and NCNC outperform recent strong baselines by large margins. NCNC achieves
state-of-the-art performance in link prediction tasks. Our code is available at
https://github.com/GraphPKU/NeuralCommonNeighbor.
- Abstract(参考訳): 様々なグラフタスクにおける優れたパフォーマンスにもかかわらず、バニラメッセージパッシングニューラルネットワーク(MPNN)は通常、リンク予測タスクで失敗する。
ペアワイズ関係を捉えるために、いくつかのモデルは入力グラフに手動の機能を加え、MPNNの出力を使ってペアワイズ表現を生成する。
対照的に、手動機能をペアワイズ表現として直接使用するものもある。
この単純化は各リンクにgnnを個別に適用することを避け、拡張性を向上させるが、手作りで理解できないペアワイズ機能のために、これらのモデルはまだ性能改善の余地がある。
スケーラビリティを維持しつつ性能をアップグレードするために,学習可能なペアワイズ表現を用いたneural common neighbor (ncn)を提案する。
NCNをさらに高めるために、未観測リンク問題について検討する。
グラフの不完全性はユビキタスであり、トレーニングとテストセット間の分散シフト、一般的な隣り合う情報の損失、モデルの性能劣化につながる。
そこで本研究では,近接補完法と目標リンク除去法という2つの介入法を提案する。
この2つの手法をNCNと組み合わせて,NCNC(Neural Common Neighbor with Completion)を提案する。
NCNとNCNCは、最近の強いベースラインを大きなマージンで上回っている。
NCNCはリンク予測タスクにおいて最先端のパフォーマンスを達成する。
私たちのコードはhttps://github.com/graphpku/neuralcommonneighborで利用可能です。
関連論文リスト
- PROXI: Challenging the GNNs for Link Prediction [3.8233569758620063]
本稿では,グラフと属性空間の両方におけるノードペアの近接情報を活用するPROXIを紹介する。
標準機械学習(ML)モデルは競争力があり、最先端のGNNモデルよりも優れています。
ProXIによる従来のGNNの拡張はリンク予測性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:57:38Z) - Efficient Neural Common Neighbor for Temporal Graph Link Prediction [32.41660611941389]
本稿では、時間グラフにおけるリンク予測のためのNCN(Neural Common Neighbor)の時間バージョンであるTNCNを提案する。
TNCNは、各ノードの時間的隣接辞書を動的に更新し、ソースとターゲットノード間のマルチホップ共通辞書を使用して、より効果的なペアワイズ表現を学習する。
5つの大規模実世界のデータセットでモデルを検証し、それらのうち3つで新たな最先端のパフォーマンスを実現することを発見した。
論文 参考訳(メタデータ) (2024-06-12T06:45:03Z) - Learning Scalable Structural Representations for Link Prediction with
Bloom Signatures [39.63963077346406]
グラフニューラルネットワーク(GNN)は、リンク予測タスクでサブ最適に実行されることが知られている。
本稿では,Bloomシグネチャを用いたGNNのメッセージパッシングフレームワークを拡張し,構造的リンク表現の学習を提案する。
提案モデルでは,既存のエッジワイドGNNモデルと同等あるいは優れた性能を実現している。
論文 参考訳(メタデータ) (2023-12-28T02:21:40Z) - Pure Message Passing Can Estimate Common Neighbor for Link Prediction [25.044734252779975]
CN(Common Neighbor)の近似におけるMPNNの習熟度について検討する。
本稿では,新しいリンク予測モデルであるMPLP(Message Passing Link Predictor)を紹介する。
論文 参考訳(メタデータ) (2023-09-02T16:20:41Z) - When Do Graph Neural Networks Help with Node Classification?
Investigating the Impact of Homophily Principle on Node Distinguishability [92.8279562472538]
ホモフィリー原理は、ノード分類タスクにおけるニューラルネットワークよりもグラフネットワーク(GNN)の性能上の優位性の主要な理由であると考えられている。
最近の研究は、ホモフィリーがなくても、同じクラスのノードが類似した近隣パターンを共有する限り、GNNの利点は依然として存在することを示唆している。
論文 参考訳(メタデータ) (2023-04-25T09:40:47Z) - Graph Neural Networks are Inherently Good Generalizers: Insights by
Bridging GNNs and MLPs [71.93227401463199]
本稿では、P(ropagational)MLPと呼ばれる中間モデルクラスを導入することにより、GNNの性能向上を本質的な能力に向ける。
PMLPは、トレーニングにおいてはるかに効率的でありながら、GNNと同等(あるいはそれ以上)に動作することを観察する。
論文 参考訳(メタデータ) (2022-12-18T08:17:32Z) - MGDCF: Distance Learning via Markov Graph Diffusion for Neural
Collaborative Filtering [96.65234340724237]
現状のGNNベースCFモデルとコンテキスト符号化に基づく従来の1層NRLモデルとの等価性を示す。
マルコフグラフ拡散協調フィルタ (MGDCF) を用いて, 最先端のGNNベースCFモデルを一般化する。
論文 参考訳(メタデータ) (2022-04-05T17:24:32Z) - BScNets: Block Simplicial Complex Neural Networks [79.81654213581977]
グラフ学習における最新の方向性として、SNN(Simplicial Neural Network)が最近登場した。
リンク予測のためのBlock Simplicial Complex Neural Networks (BScNets) モデルを提案する。
BScNetsは、コストを抑えながら最先端のモデルよりも大きなマージンを保っている。
論文 参考訳(メタデータ) (2021-12-13T17:35:54Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Bilinear Graph Neural Network with Neighbor Interactions [106.80781016591577]
グラフニューラルネットワーク(GNN)は,グラフデータ上で表現を学習し,予測を行う強力なモデルである。
本稿では,グラフ畳み込み演算子を提案し,隣接するノードの表現の対の相互作用で重み付け和を増大させる。
このフレームワークをBGNN(Bilinear Graph Neural Network)と呼び、隣ノード間の双方向相互作用によるGNN表現能力を向上させる。
論文 参考訳(メタデータ) (2020-02-10T06:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。