論文の概要: Neural Common Neighbor with Completion for Link Prediction
- arxiv url: http://arxiv.org/abs/2302.00890v1
- Date: Thu, 2 Feb 2023 05:45:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 15:15:05.409509
- Title: Neural Common Neighbor with Completion for Link Prediction
- Title(参考訳): リンク予測のための補完付きニューラルコモン近傍
- Authors: Xiyuan Wang, Haotong Yang, Muhan Zhang
- Abstract要約: 学習可能なペアワイズ表現を用いたニューラルコモンネバー(NCN)を提案する。
また、未観測リンク問題についても検討する。
NCNCはリンク予測タスクにおいて最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 8.121462458089141
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite its outstanding performance in various graph tasks, vanilla Message
Passing Neural Network (MPNN) usually fails in link prediction tasks, as it
only uses representations of two individual target nodes and ignores the
pairwise relation between them. To capture the pairwise relations, some models
add manual features to the input graph and use the output of MPNN to produce
pairwise representations. In contrast, others directly use manual features as
pairwise representations. Though this simplification avoids applying a GNN to
each link individually and thus improves scalability, these models still have
much room for performance improvement due to the hand-crafted and unlearnable
pairwise features. To upgrade performance while maintaining scalability, we
propose Neural Common Neighbor (NCN), which uses learnable pairwise
representations. To further boost NCN, we study the unobserved link problem.
The incompleteness of the graph is ubiquitous and leads to distribution shifts
between the training and test set, loss of common neighbor information, and
performance degradation of models. Therefore, we propose two intervention
methods: common neighbor completion and target link removal. Combining the two
methods with NCN, we propose Neural Common Neighbor with Completion (NCNC). NCN
and NCNC outperform recent strong baselines by large margins. NCNC achieves
state-of-the-art performance in link prediction tasks.
- Abstract(参考訳): 様々なグラフタスクにおける優れたパフォーマンスにもかかわらず、バニラメッセージパッシングニューラルネットワーク(MPNN)は通常、リンク予測タスクで失敗する。
ペアワイズ関係を捉えるために、いくつかのモデルは入力グラフに手動の機能を加え、MPNNの出力を使ってペアワイズ表現を生成する。
対照的に、手動機能をペアワイズ表現として直接使用するものもある。
この単純化は各リンクにgnnを個別に適用することを避け、拡張性を向上させるが、手作りで理解できないペアワイズ機能のために、これらのモデルはまだ性能改善の余地がある。
スケーラビリティを維持しつつ性能をアップグレードするために,学習可能なペアワイズ表現を用いたneural common neighbor (ncn)を提案する。
NCNをさらに高めるために、未観測リンク問題について検討する。
グラフの不完全性はユビキタスであり、トレーニングとテストセット間の分散シフト、一般的な隣り合う情報の損失、モデルの性能劣化につながる。
そこで本研究では,近接補完法と目標リンク除去法という2つの介入法を提案する。
この2つの手法をNCNと組み合わせて,NCNC(Neural Common Neighbor with Completion)を提案する。
NCNとNCNCは、最近の強いベースラインを大きなマージンで上回っている。
NCNCはリンク予測タスクにおいて最先端のパフォーマンスを達成する。
関連論文リスト
- Learning Scalable Structural Representations for Link Prediction with
Bloom Signatures [39.63963077346406]
グラフニューラルネットワーク(GNN)は、リンク予測タスクでサブ最適に実行されることが知られている。
本稿では,Bloomシグネチャを用いたGNNのメッセージパッシングフレームワークを拡張し,構造的リンク表現の学習を提案する。
提案モデルでは,既存のエッジワイドGNNモデルと同等あるいは優れた性能を実現している。
論文 参考訳(メタデータ) (2023-12-28T02:21:40Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Collaborative Graph Neural Networks for Attributed Network Embedding [63.39495932900291]
グラフニューラルネットワーク(GNN)は、属性付きネットワーク埋め込みにおいて顕著な性能を示している。
本稿では,ネットワーク埋め込みに適したGNNアーキテクチャであるCulaborative graph Neural Networks-CONNを提案する。
論文 参考訳(メタデータ) (2023-07-22T04:52:27Z) - Graph Neural Networks are Inherently Good Generalizers: Insights by
Bridging GNNs and MLPs [71.93227401463199]
本稿では、P(ropagational)MLPと呼ばれる中間モデルクラスを導入することにより、GNNの性能向上を本質的な能力に向ける。
PMLPは、トレーニングにおいてはるかに効率的でありながら、GNNと同等(あるいはそれ以上)に動作することを観察する。
論文 参考訳(メタデータ) (2022-12-18T08:17:32Z) - Neighborhood Convolutional Network: A New Paradigm of Graph Neural
Networks for Node Classification [12.062421384484812]
グラフ畳み込みネットワーク(GCN)は、各畳み込み層における近傍の集約と特徴変換を分離する。
本稿では,周辺畳み込みネットワーク(NCN)と呼ばれるGCNの新しいパラダイムを提案する。
このようにして、モデルは、近隣情報を集約するための分離GCNの利点を継承すると同時に、より強力な特徴学習モジュールを開発することができる。
論文 参考訳(メタデータ) (2022-11-15T02:02:51Z) - Neo-GNNs: Neighborhood Overlap-aware Graph Neural Networks for Link
Prediction [23.545059901853815]
グラフニューラルネットワーク(GNN)は,グラフ構造データの学習に広く応用されている。
リンク予測のために隣接重畳された近傍から有用な構造特徴を学習する近傍オーバーラップ対応グラフニューラルネットワーク(Neo-GNN)を提案する。
論文 参考訳(メタデータ) (2022-06-09T01:43:49Z) - Position-Sensing Graph Neural Networks: Proactively Learning Nodes
Relative Positions [26.926733376090052]
既存のグラフニューラルネットワーク(GNN)は、メッセージパッシングとアグリゲーションのフレームワークを使用してノードの埋め込みを学習する。
本稿では,位置検出型グラフニューラルネットワーク(PSGNN)を提案する。
PSGNNs on average boost AUC more than 14% for pairwise node classification and 18% for link prediction。
論文 参考訳(メタデータ) (2021-05-24T15:30:30Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Towards Deeper Graph Neural Networks with Differentiable Group
Normalization [61.20639338417576]
グラフニューラルネットワーク(GNN)は、隣接するノードを集約することでノードの表現を学習する。
オーバースムーシングは、レイヤーの数が増えるにつれてGNNのパフォーマンスが制限される重要な問題のひとつです。
2つのオーバースムースなメトリクスと新しいテクニック、すなわち微分可能群正規化(DGN)を導入する。
論文 参考訳(メタデータ) (2020-06-12T07:18:02Z) - Bilinear Graph Neural Network with Neighbor Interactions [106.80781016591577]
グラフニューラルネットワーク(GNN)は,グラフデータ上で表現を学習し,予測を行う強力なモデルである。
本稿では,グラフ畳み込み演算子を提案し,隣接するノードの表現の対の相互作用で重み付け和を増大させる。
このフレームワークをBGNN(Bilinear Graph Neural Network)と呼び、隣ノード間の双方向相互作用によるGNN表現能力を向上させる。
論文 参考訳(メタデータ) (2020-02-10T06:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。