論文の概要: Bring Your Own View: Graph Neural Networks for Link Prediction with
Personalized Subgraph Selection
- arxiv url: http://arxiv.org/abs/2212.12488v1
- Date: Fri, 23 Dec 2022 17:30:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 17:19:16.655545
- Title: Bring Your Own View: Graph Neural Networks for Link Prediction with
Personalized Subgraph Selection
- Title(参考訳): パーソナライズされたサブグラフ選択によるリンク予測のためのグラフニューラルネットワーク
- Authors: Qiaoyu Tan, Xin Zhang, Ninghao Liu, Daochen Zha, Li Li, Rui Chen,
Soo-Hyun Choi, Xia Hu
- Abstract要約: 異なるエッジに対して最適なサブグラフを自動,個人的,帰納的に識別するプラグイン・アンド・プレイ・フレームワークとしてパーソナライズされたサブグラフセレクタ(PS2)を導入する。
PS2は二段階最適化問題としてインスタンス化され、効率よく解ける。
GNNLPトレーニングに対する新たなアプローチとして,まずエッジの最適な部分グラフを識別し,次にサンプル部分グラフを用いて推論モデルをトレーニングすることを提案する。
- 参考スコア(独自算出の注目度): 57.34881616131377
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have received remarkable success in link
prediction (GNNLP) tasks. Existing efforts first predefine the subgraph for the
whole dataset and then apply GNNs to encode edge representations by leveraging
the neighborhood structure induced by the fixed subgraph. The prominence of
GNNLP methods significantly relies on the adhoc subgraph. Since node
connectivity in real-world graphs is complex, one shared subgraph is limited
for all edges. Thus, the choices of subgraphs should be personalized to
different edges. However, performing personalized subgraph selection is
nontrivial since the potential selection space grows exponentially to the scale
of edges. Besides, the inference edges are not available during training in
link prediction scenarios, so the selection process needs to be inductive. To
bridge the gap, we introduce a Personalized Subgraph Selector (PS2) as a
plug-and-play framework to automatically, personally, and inductively identify
optimal subgraphs for different edges when performing GNNLP. PS2 is
instantiated as a bi-level optimization problem that can be efficiently solved
differently. Coupling GNNLP models with PS2, we suggest a brand-new angle
towards GNNLP training: by first identifying the optimal subgraphs for edges;
and then focusing on training the inference model by using the sampled
subgraphs. Comprehensive experiments endorse the effectiveness of our proposed
method across various GNNLP backbones (GCN, GraphSage, NGCF, LightGCN, and
SEAL) and diverse benchmarks (Planetoid, OGB, and Recommendation datasets). Our
code is publicly available at \url{https://github.com/qiaoyu-tan/PS2}
- Abstract(参考訳): グラフニューラルネットワーク(GNN)はリンク予測(GNNLP)タスクにおいて顕著な成功を収めている。
既存の取り組みは、まずデータセット全体のサブグラフを事前に定義し、次にGNNを用いてエッジ表現をエンコードする。
GNNLP法の優位性はアドホック部分グラフに大きく依存している。
実世界のグラフにおけるノード接続は複雑であるため、1つの共有サブグラフはすべてのエッジに制限される。
したがって、サブグラフの選択は異なるエッジにパーソナライズされるべきである。
しかしながら、潜在的な選択空間が指数関数的にエッジのスケールに成長するため、パーソナライズされたサブグラフ選択の実行は自明ではない。
さらに、リンク予測シナリオのトレーニング中に推論エッジが利用できないため、選択プロセスはインダクティブでなければならない。
このギャップを埋めるために,gnnlpを行う際,各エッジに対して最適なサブグラフを自動的に,個人的,帰納的に識別するプラグイン・アンド・プレイフレームワークとして,パーソナライズされたサブグラフセレクタ(ps2)を導入する。
PS2は二段階最適化問題としてインスタンス化され、効率よく解ける。
GNNLPモデルをPS2と組み合わせることで、まずエッジの最適な部分グラフを識別し、次にサンプル化された部分グラフを用いて推論モデルのトレーニングに焦点を合わせることで、GNNLPトレーニングに対する新たな角度を提案する。
GNNLPバックボーン(GCN, GraphSage, NGCF, LightGCN, SEAL)と多種多様なベンチマーク(Planetoid, OGB, Recommendation データセット)にまたがって提案手法の有効性を総合的に検証した。
我々のコードは \url{https://github.com/qiaoyu-tan/PS2} で公開されている。
関連論文リスト
- A Flexible, Equivariant Framework for Subgraph GNNs via Graph Products and Graph Coarsening [18.688057947275112]
グラフグラフニューラルネットワーク(サブグラフGNN)は,グラフをサブグラフの集合として表現することで,メッセージパスGNNの表現性を向上する。
以前のアプローチでは、ランダムにまたは学習可能なサンプリングによって選択されたサブグラフのサブセットのみを処理することを提案していた。
本稿では,これらの問題に対処する新しいSubgraph GNNフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-13T16:29:06Z) - Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - NESS: Node Embeddings from Static SubGraphs [0.0]
本稿では,グラフオートエンコーダ(GAE)を用いて静的サブグラフ(NESS)からノード埋め込みをトランスダクティブに学習するフレームワークを提案する。
NESSは2つの主要なアイデアに基づいている。 i) トレーニンググラフをデータ前処理中にランダムなエッジ分割を使用して、重複しないエッジを持つ複数の静的でスパースなサブグラフに分割する。
我々はNESSがリンク予測タスクに対して、グラフ全体またはサブグラフのいずれかを使用する現在の自動符号化手法と比較して、より良いノード表現を提供することを示した。
論文 参考訳(メタデータ) (2023-03-15T22:14:28Z) - DiP-GNN: Discriminative Pre-Training of Graph Neural Networks [49.19824331568713]
GNNのパワーを高めるために,グラフニューラルネットワーク(GNN)事前学習法が提案されている。
一般的な事前トレーニング手法の1つは、エッジのパーセンテージをマスクアウトすることであり、GNNはそれらを回復するように訓練されている。
筆者らのフレームワークでは, 識別器が見るグラフは, マスキングエッジの比率を回復できるため, 元のグラフとよく一致している。
論文 参考訳(メタデータ) (2022-09-15T17:41:50Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。