論文の概要: Bring Your Own View: Graph Neural Networks for Link Prediction with
Personalized Subgraph Selection
- arxiv url: http://arxiv.org/abs/2212.12488v1
- Date: Fri, 23 Dec 2022 17:30:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 17:19:16.655545
- Title: Bring Your Own View: Graph Neural Networks for Link Prediction with
Personalized Subgraph Selection
- Title(参考訳): パーソナライズされたサブグラフ選択によるリンク予測のためのグラフニューラルネットワーク
- Authors: Qiaoyu Tan, Xin Zhang, Ninghao Liu, Daochen Zha, Li Li, Rui Chen,
Soo-Hyun Choi, Xia Hu
- Abstract要約: 異なるエッジに対して最適なサブグラフを自動,個人的,帰納的に識別するプラグイン・アンド・プレイ・フレームワークとしてパーソナライズされたサブグラフセレクタ(PS2)を導入する。
PS2は二段階最適化問題としてインスタンス化され、効率よく解ける。
GNNLPトレーニングに対する新たなアプローチとして,まずエッジの最適な部分グラフを識別し,次にサンプル部分グラフを用いて推論モデルをトレーニングすることを提案する。
- 参考スコア(独自算出の注目度): 57.34881616131377
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have received remarkable success in link
prediction (GNNLP) tasks. Existing efforts first predefine the subgraph for the
whole dataset and then apply GNNs to encode edge representations by leveraging
the neighborhood structure induced by the fixed subgraph. The prominence of
GNNLP methods significantly relies on the adhoc subgraph. Since node
connectivity in real-world graphs is complex, one shared subgraph is limited
for all edges. Thus, the choices of subgraphs should be personalized to
different edges. However, performing personalized subgraph selection is
nontrivial since the potential selection space grows exponentially to the scale
of edges. Besides, the inference edges are not available during training in
link prediction scenarios, so the selection process needs to be inductive. To
bridge the gap, we introduce a Personalized Subgraph Selector (PS2) as a
plug-and-play framework to automatically, personally, and inductively identify
optimal subgraphs for different edges when performing GNNLP. PS2 is
instantiated as a bi-level optimization problem that can be efficiently solved
differently. Coupling GNNLP models with PS2, we suggest a brand-new angle
towards GNNLP training: by first identifying the optimal subgraphs for edges;
and then focusing on training the inference model by using the sampled
subgraphs. Comprehensive experiments endorse the effectiveness of our proposed
method across various GNNLP backbones (GCN, GraphSage, NGCF, LightGCN, and
SEAL) and diverse benchmarks (Planetoid, OGB, and Recommendation datasets). Our
code is publicly available at \url{https://github.com/qiaoyu-tan/PS2}
- Abstract(参考訳): グラフニューラルネットワーク(GNN)はリンク予測(GNNLP)タスクにおいて顕著な成功を収めている。
既存の取り組みは、まずデータセット全体のサブグラフを事前に定義し、次にGNNを用いてエッジ表現をエンコードする。
GNNLP法の優位性はアドホック部分グラフに大きく依存している。
実世界のグラフにおけるノード接続は複雑であるため、1つの共有サブグラフはすべてのエッジに制限される。
したがって、サブグラフの選択は異なるエッジにパーソナライズされるべきである。
しかしながら、潜在的な選択空間が指数関数的にエッジのスケールに成長するため、パーソナライズされたサブグラフ選択の実行は自明ではない。
さらに、リンク予測シナリオのトレーニング中に推論エッジが利用できないため、選択プロセスはインダクティブでなければならない。
このギャップを埋めるために,gnnlpを行う際,各エッジに対して最適なサブグラフを自動的に,個人的,帰納的に識別するプラグイン・アンド・プレイフレームワークとして,パーソナライズされたサブグラフセレクタ(ps2)を導入する。
PS2は二段階最適化問題としてインスタンス化され、効率よく解ける。
GNNLPモデルをPS2と組み合わせることで、まずエッジの最適な部分グラフを識別し、次にサンプル化された部分グラフを用いて推論モデルのトレーニングに焦点を合わせることで、GNNLPトレーニングに対する新たな角度を提案する。
GNNLPバックボーン(GCN, GraphSage, NGCF, LightGCN, SEAL)と多種多様なベンチマーク(Planetoid, OGB, Recommendation データセット)にまたがって提案手法の有効性を総合的に検証した。
我々のコードは \url{https://github.com/qiaoyu-tan/PS2} で公開されている。
関連論文リスト
- NESS: Node Embeddings from Static SubGraphs [0.0]
本稿では,グラフオートエンコーダ(GAE)を用いて静的サブグラフ(NESS)からノード埋め込みをトランスダクティブに学習するフレームワークを提案する。
NESSは2つの主要なアイデアに基づいている。 i) トレーニンググラフをデータ前処理中にランダムなエッジ分割を使用して、重複しないエッジを持つ複数の静的でスパースなサブグラフに分割する。
我々はNESSがリンク予測タスクに対して、グラフ全体またはサブグラフのいずれかを使用する現在の自動符号化手法と比較して、より良いノード表現を提供することを示した。
論文 参考訳(メタデータ) (2023-03-15T22:14:28Z) - DiP-GNN: Discriminative Pre-Training of Graph Neural Networks [49.19824331568713]
GNNのパワーを高めるために,グラフニューラルネットワーク(GNN)事前学習法が提案されている。
一般的な事前トレーニング手法の1つは、エッジのパーセンテージをマスクアウトすることであり、GNNはそれらを回復するように訓練されている。
筆者らのフレームワークでは, 識別器が見るグラフは, マスキングエッジの比率を回復できるため, 元のグラフとよく一致している。
論文 参考訳(メタデータ) (2022-09-15T17:41:50Z) - Exploiting Neighbor Effect: Conv-Agnostic GNNs Framework for Graphs with
Heterophily [58.76759997223951]
我々はフォン・ノイマンエントロピーに基づく新しい計量を提案し、GNNのヘテロフィリー問題を再検討する。
また、異種データセット上でのほとんどのGNNの性能を高めるために、Conv-Agnostic GNNフレームワーク(CAGNN)を提案する。
論文 参考訳(メタデータ) (2022-03-19T14:26:43Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Learnt Sparsification for Interpretable Graph Neural Networks [5.527927312898106]
不要な隣人を除去することにより、基礎となるグラフを明示的にスパース化するための、Kedgeと呼ばれる新しい手法を提案する。
Kedgeは、任意のGNNでトレーニングされたモジュール方式でエッジマスクを学習することで、勾配ベースの最適化を実現する。
我々は,GNN層の増加に伴うタスク性能の維持により,深いGNNにおける過度なスムース現象に対して,Kedgeが効果的に対処可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T16:04:25Z) - Position-Sensing Graph Neural Networks: Proactively Learning Nodes
Relative Positions [26.926733376090052]
既存のグラフニューラルネットワーク(GNN)は、メッセージパッシングとアグリゲーションのフレームワークを使用してノードの埋め込みを学習する。
本稿では,位置検出型グラフニューラルネットワーク(PSGNN)を提案する。
PSGNNs on average boost AUC more than 14% for pairwise node classification and 18% for link prediction。
論文 参考訳(メタデータ) (2021-05-24T15:30:30Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。