論文の概要: GNNs Meet Sequence Models Along the Shortest-Path: an Expressive Method for Link Prediction
- arxiv url: http://arxiv.org/abs/2507.07138v1
- Date: Wed, 09 Jul 2025 01:37:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.138596
- Title: GNNs Meet Sequence Models Along the Shortest-Path: an Expressive Method for Link Prediction
- Title(参考訳): GNNが最短経路に沿ったシーケンスモデル:リンク予測のための表現的手法
- Authors: Francesco Ferrini, Veronica Lachi, Antonio Longa, Bruno Lepri, Andrea Passerini,
- Abstract要約: SP4LP(Shortest Path for Link Prediction)は、GNNベースのノードエンコーディングと最短経路上のシーケンスモデリングを組み合わせた新しいフレームワークである。
本研究では,SP4LPがリンク予測ベンチマークにおける最先端性能を実現することを示す。
- 参考スコア(独自算出の注目度): 11.810758962687427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) often struggle to capture the link-specific structural patterns crucial for accurate link prediction, as their node-centric message-passing schemes overlook the subgraph structures connecting a pair of nodes. Existing methods to inject such structural context either incur high computational cost or rely on simplistic heuristics (e.g., common neighbor counts) that fail to model multi-hop dependencies. We introduce SP4LP (Shortest Path for Link Prediction), a novel framework that combines GNN-based node encodings with sequence modeling over shortest paths. Specifically, SP4LP first applies a GNN to compute representations for all nodes, then extracts the shortest path between each candidate node pair and processes the resulting sequence of node embeddings using a sequence model. This design enables SP4LP to capture expressive multi-hop relational patterns with computational efficiency. Empirically, SP4LP achieves state-of-the-art performance across link prediction benchmarks. Theoretically, we prove that SP4LP is strictly more expressive than standard message-passing GNNs and several state-of-the-art structural features methods, establishing it as a general and principled approach for link prediction in graphs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ノード中心のメッセージパッシングスキームが一対のノードを接続するサブグラフ構造を見渡すため、正確なリンク予測に不可欠なリンク固有の構造パターンを捉えるのに苦労することが多い。
このような構造的コンテキストを注入する既存の手法は、高い計算コストを発生させるか、あるいはマルチホップ依存のモデル化に失敗した単純なヒューリスティック(例えば、近隣の一般的な数)に依存する。
本稿では、GNNベースのノードエンコーディングと最短経路上のシーケンスモデリングを組み合わせた新しいフレームワークSP4LP(Shortest Path for Link Prediction)を紹介する。
具体的には、まずすべてのノードの表現を計算するためにGNNを適用し、次に各候補ノード間の最短経路を抽出し、シーケンスモデルを用いてノード埋め込みの結果のシーケンスを処理する。
この設計により、SP4LPは計算効率で表現力のあるマルチホップ関係パターンをキャプチャできる。
経験的に、SP4LPはリンク予測ベンチマークで最先端のパフォーマンスを達成する。
理論的には、SP4LPは標準的なメッセージパッシングGNNやいくつかの最先端構造特徴法よりも厳密に表現され、グラフにおけるリンク予測の汎用的で原則化されたアプローチとして確立されている。
関連論文リスト
- Recurrent Distance Filtering for Graph Representation Learning [34.761926988427284]
反復的なワンホップメッセージパッシングに基づくグラフニューラルネットワークは、遠方のノードからの情報を効果的に活用するのに苦労していることが示されている。
これらの課題を解決するための新しいアーキテクチャを提案する。
我々のモデルは、ターゲットへの最短距離で他のノードを集約し、線形RNNを用いてホップ表現のシーケンスを符号化する。
論文 参考訳(メタデータ) (2023-12-03T23:36:16Z) - Efficient Link Prediction via GNN Layers Induced by Negative Sampling [86.87385758192566]
リンク予測のためのグラフニューラルネットワーク(GNN)は、緩やかに2つの広いカテゴリに分けられる。
本稿では,新しいGNNアーキテクチャを提案する。このアーキテクチャでは,Emphforwardパスは,Emphboth陽性(典型的)と負陰性(アプローチに共通)のエッジに明示的に依存する。
これは、埋め込み自体を、正と負のサンプルの分離を好むフォワードパス特異的エネルギー関数の最小化子として再キャストすることで達成される。
論文 参考訳(メタデータ) (2023-10-14T07:02:54Z) - Pure Message Passing Can Estimate Common Neighbor for Link Prediction [25.044734252779975]
CN(Common Neighbor)の近似におけるMPNNの習熟度について検討する。
本稿では,新しいリンク予測モデルであるMPLP(Message Passing Link Predictor)を紹介する。
論文 参考訳(メタデータ) (2023-09-02T16:20:41Z) - Deep Graph Neural Networks via Posteriori-Sampling-based Node-Adaptive Residual Module [65.81781176362848]
グラフニューラルネットワーク(GNN)は、近隣情報収集を通じてグラフ構造化データから学習することができる。
レイヤーの数が増えるにつれて、ノード表現は区別不能になり、オーバー・スムーシング(over-smoothing)と呼ばれる。
我々は,textbfPosterior-Sampling-based, Node-distinguish Residual Module (PSNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - VQ-GNN: A Universal Framework to Scale up Graph Neural Networks using
Vector Quantization [70.8567058758375]
VQ-GNNは、Vector Quantization(VQ)を使用して、パフォーマンスを損なうことなく、畳み込みベースのGNNをスケールアップするための普遍的なフレームワークである。
我々のフレームワークは,グラフ畳み込み行列の低ランク版と組み合わせた量子化表現を用いて,GNNの「隣の爆発」問題を回避する。
論文 参考訳(メタデータ) (2021-10-27T11:48:50Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z) - Graph Sequential Network for Reasoning over Sequences [38.766982479196926]
シーケンスから構築されたグラフよりも推論が必要な場合を考える。
既存のGNNモデルは、まずノード列を固定次元ベクトルに要約し、次にこれらのベクトルにGNNを適用することで、この目標を達成する。
本稿では,グラフシーケンスネットワーク(GSN)と呼ばれる新しいタイプのGNNを提案する。
論文 参考訳(メタデータ) (2020-04-04T19:18:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。