論文の概要: Pure Message Passing Can Estimate Common Neighbor for Link Prediction
- arxiv url: http://arxiv.org/abs/2309.00976v4
- Date: Mon, 14 Oct 2024 14:11:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-15 17:54:05.900549
- Title: Pure Message Passing Can Estimate Common Neighbor for Link Prediction
- Title(参考訳): リンク予測のためのPure Message Passingは、近隣住民を推定できる
- Authors: Kaiwen Dong, Zhichun Guo, Nitesh V. Chawla,
- Abstract要約: CN(Common Neighbor)の近似におけるMPNNの習熟度について検討する。
本稿では,新しいリンク予測モデルであるMPLP(Message Passing Link Predictor)を紹介する。
- 参考スコア(独自算出の注目度): 25.044734252779975
- License:
- Abstract: Message Passing Neural Networks (MPNNs) have emerged as the {\em de facto} standard in graph representation learning. However, when it comes to link prediction, they often struggle, surpassed by simple heuristics such as Common Neighbor (CN). This discrepancy stems from a fundamental limitation: while MPNNs excel in node-level representation, they stumble with encoding the joint structural features essential to link prediction, like CN. To bridge this gap, we posit that, by harnessing the orthogonality of input vectors, pure message-passing can indeed capture joint structural features. Specifically, we study the proficiency of MPNNs in approximating CN heuristics. Based on our findings, we introduce the Message Passing Link Predictor (MPLP), a novel link prediction model. MPLP taps into quasi-orthogonal vectors to estimate link-level structural features, all while preserving the node-level complexities. Moreover, our approach demonstrates that leveraging message-passing to capture structural features could offset MPNNs' expressiveness limitations at the expense of estimation variance. We conduct experiments on benchmark datasets from various domains, where our method consistently outperforms the baseline methods.
- Abstract(参考訳): メッセージパッシングニューラルネットワーク(MPNN)は、グラフ表現学習におけるデファクト標準として登場した。
しかし、リンク予測に関して、彼らはしばしば苦労し、Common Neighbor (CN)のような単純なヒューリスティックに勝っている。
MPNNはノードレベルの表現が優れているが、CNのようなリンク予測に不可欠な結合構造的特徴を符号化する。
このギャップを埋めるために、入力ベクトルの直交性を利用することで、純粋メッセージパッシングが実際に関節構造の特徴を捉えることができると仮定する。
具体的には,CNヒューリスティックスを近似するMPNNの習熟度について検討する。
本稿では,新しいリンク予測モデルであるMPLP(Message Passing Link Predictor)を導入する。
MPLPは準直交ベクトルをタップして、ノードレベルの複雑さを保ちながら、リンクレベルの構造的特徴を推定する。
さらに,提案手法は,構造的特徴を捉えるためにメッセージパッシングを活用することで,推定分散を犠牲にしてMPNNの表現性制限を相殺できることを実証する。
我々は様々な領域のベンチマークデータセットで実験を行い、この手法はベースライン法より一貫して優れています。
関連論文リスト
- Link Prediction with Untrained Message Passing Layers [0.716879432974126]
グラフニューラルネットワークにおける各種未学習メッセージパッシング層の利用について検討する。
トレーニングされていないメッセージパッシング層は、完全にトレーニングされたMPNNと比較して競争力があり、パフォーマンスも優れていることが分かりました。
論文 参考訳(メタデータ) (2024-06-24T14:46:34Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Learning Scalable Structural Representations for Link Prediction with
Bloom Signatures [39.63963077346406]
グラフニューラルネットワーク(GNN)は、リンク予測タスクでサブ最適に実行されることが知られている。
本稿では,Bloomシグネチャを用いたGNNのメッセージパッシングフレームワークを拡張し,構造的リンク表現の学習を提案する。
提案モデルでは,既存のエッジワイドGNNモデルと同等あるいは優れた性能を実現している。
論文 参考訳(メタデータ) (2023-12-28T02:21:40Z) - Probabilistically Rewired Message-Passing Neural Networks [41.554499944141654]
メッセージパッシンググラフニューラルネットワーク(MPNN)は、グラフ構造化入力を処理する強力なツールとして登場した。
MPNNは、潜在的なノイズや欠落した情報を無視して、固定された入力グラフ構造で動作する。
確率的に再構成されたMPNN(PR-MPNN)を考案し、より有益なものを省略しながら、関連するエッジを追加することを学習する。
論文 参考訳(メタデータ) (2023-10-03T15:43:59Z) - Revisiting Link Prediction: A Data Perspective [61.52668130971441]
グラフの基本的なタスクであるリンク予測は、友人の推薦、タンパク質分析、薬物相互作用予測など、様々な応用において不可欠であることが証明されている。
既存の文献の証拠は、すべてのデータセットに適した普遍的に最良のアルゴリズムが存在しないことを裏付けている。
我々は,局所的な構造的近接,大域的な構造的近接,特徴的近接という,リンク予測に不可欠な3つの基本的要因を認識する。
論文 参考訳(メタデータ) (2023-10-01T21:09:59Z) - Neural Common Neighbor with Completion for Link Prediction [25.871382203332903]
我々は,MPNNの表現プーリングを誘導する構造的特徴(SF)を活用した革新的なアーキテクチャであるMPNN-then-SFを紹介する。
グラフの不完全性が SF に与える影響について検討する。
この問題に対処するために、リンク予測モデルを用いて、一般的な隣り合う構造を完成させる手法を提案する。
論文 参考訳(メタデータ) (2023-02-02T05:45:09Z) - Graph Neural Networks are Inherently Good Generalizers: Insights by
Bridging GNNs and MLPs [71.93227401463199]
本稿では、P(ropagational)MLPと呼ばれる中間モデルクラスを導入することにより、GNNの性能向上を本質的な能力に向ける。
PMLPは、トレーニングにおいてはるかに効率的でありながら、GNNと同等(あるいはそれ以上)に動作することを観察する。
論文 参考訳(メタデータ) (2022-12-18T08:17:32Z) - Link Prediction with Contextualized Self-Supervision [63.25455976593081]
リンク予測は、ネットワーク内の2つのノード間のリンクの存在を推測することを目的としている。
従来のリンク予測アルゴリズムは、リンク空間、ノード属性ノイズ、ネットワークダイナミクスという3つの大きな課題によって妨げられている。
本稿では,リンク予測のための構造的コンテキスト予測を完全に活用する,コンテキスト適応型自己監視学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-25T03:12:32Z) - VQ-GNN: A Universal Framework to Scale up Graph Neural Networks using
Vector Quantization [70.8567058758375]
VQ-GNNは、Vector Quantization(VQ)を使用して、パフォーマンスを損なうことなく、畳み込みベースのGNNをスケールアップするための普遍的なフレームワークである。
我々のフレームワークは,グラフ畳み込み行列の低ランク版と組み合わせた量子化表現を用いて,GNNの「隣の爆発」問題を回避する。
論文 参考訳(メタデータ) (2021-10-27T11:48:50Z) - Channel-Wise Early Stopping without a Validation Set via NNK Polytope
Interpolation [36.479195100553085]
畳み込みニューラルネットワーク(ConvNets)は、複数のチャネルの集約によって形成される高次元の特徴空間からなる。
非次元カーネル回帰(NNK)グラフに基づく新しい一般化推定法であるチャネルワイドDeepNNKを提案する。
論文 参考訳(メタデータ) (2021-07-27T17:33:30Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。