論文の概要: Learning Scalable Structural Representations for Link Prediction with
Bloom Signatures
- arxiv url: http://arxiv.org/abs/2312.16784v1
- Date: Thu, 28 Dec 2023 02:21:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 18:05:48.958504
- Title: Learning Scalable Structural Representations for Link Prediction with
Bloom Signatures
- Title(参考訳): ブルーム信号を用いたリンク予測のためのスケーラブルな構造表現の学習
- Authors: Tianyi Zhang, Haoteng Yin, Rongzhe Wei, Pan Li, Anshumali Shrivastava
- Abstract要約: グラフニューラルネットワーク(GNN)は、リンク予測タスクでサブ最適に実行されることが知られている。
本稿では,Bloomシグネチャを用いたGNNのメッセージパッシングフレームワークを拡張し,構造的リンク表現の学習を提案する。
提案モデルでは,既存のエッジワイドGNNモデルと同等あるいは優れた性能を実現している。
- 参考スコア(独自算出の注目度): 39.63963077346406
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Graph neural networks (GNNs) have shown great potential in learning on
graphs, but they are known to perform sub-optimally on link prediction tasks.
Existing GNNs are primarily designed to learn node-wise representations and
usually fail to capture pairwise relations between target nodes, which proves
to be crucial for link prediction. Recent works resort to learning more
expressive edge-wise representations by enhancing vanilla GNNs with structural
features such as labeling tricks and link prediction heuristics, but they
suffer from high computational overhead and limited scalability. To tackle this
issue, we propose to learn structural link representations by augmenting the
message-passing framework of GNNs with Bloom signatures. Bloom signatures are
hashing-based compact encodings of node neighborhoods, which can be efficiently
merged to recover various types of edge-wise structural features. We further
show that any type of neighborhood overlap-based heuristic can be estimated by
a neural network that takes Bloom signatures as input. GNNs with Bloom
signatures are provably more expressive than vanilla GNNs and also more
scalable than existing edge-wise models. Experimental results on five standard
link prediction benchmarks show that our proposed model achieves comparable or
better performance than existing edge-wise GNN models while being 3-200
$\times$ faster and more memory-efficient for online inference.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)はグラフの学習において大きな可能性を示しているが、リンク予測タスクで準最適に実行することが知られている。
既存のGNNは主にノードワイズ表現を学習するために設計されており、通常はターゲットノード間のペアワイズ関係をキャプチャできない。
最近の研究は、バニラGNNをラベリングトリックやリンク予測ヒューリスティックスといった構造的特徴で拡張することで、より表現力のあるエッジワイド表現を学習している。
本稿では,GNNのメッセージパッシングフレームワークをブルームシグネチャで拡張することにより,構造的リンク表現の学習を提案する。
ブルームシグネチャはハッシュベースのノード近傍のコンパクトエンコーディングであり、効率よくマージして様々なエッジワイドな特徴を復元することができる。
さらに,ブルームシグネチャを入力とするニューラルネットワークによって,任意の近傍重なりに基づくヒューリスティックを推定できることを示した。
Bloomシグネチャを持つGNNは、バニラGNNよりも明らかに表現力があり、既存のエッジワイドモデルよりもスケーラブルである。
5つの標準リンク予測ベンチマークによる実験結果から,提案モデルが既存のエッジワイドGNNモデルと同等あるいは優れた性能を達成できる一方で,オンライン推論では3,200$\times$高速でメモリ効率が高いことがわかった。
関連論文リスト
- Neo-GNNs: Neighborhood Overlap-aware Graph Neural Networks for Link
Prediction [23.545059901853815]
グラフニューラルネットワーク(GNN)は,グラフ構造データの学習に広く応用されている。
リンク予測のために隣接重畳された近傍から有用な構造特徴を学習する近傍オーバーラップ対応グラフニューラルネットワーク(Neo-GNN)を提案する。
論文 参考訳(メタデータ) (2022-06-09T01:43:49Z) - Dual GNNs: Graph Neural Network Learning with Limited Supervision [33.770877823910176]
本稿では,この課題に対処するための新しいDual GNN学習フレームワークを提案する。
2つのモジュールを2つのGNN学習フレームワークに統合することにより、エンドツーエンドで共同学習を行う。
論文 参考訳(メタデータ) (2021-06-29T23:52:25Z) - Learnt Sparsification for Interpretable Graph Neural Networks [5.527927312898106]
不要な隣人を除去することにより、基礎となるグラフを明示的にスパース化するための、Kedgeと呼ばれる新しい手法を提案する。
Kedgeは、任意のGNNでトレーニングされたモジュール方式でエッジマスクを学習することで、勾配ベースの最適化を実現する。
我々は,GNN層の増加に伴うタスク性能の維持により,深いGNNにおける過度なスムース現象に対して,Kedgeが効果的に対処可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T16:04:25Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Identity-aware Graph Neural Networks [63.6952975763946]
グラフニューラルネットワーク(ID-GNN)を1-WLテストよりも表現力の高いメッセージクラスを開発しています。
ID-GNNは、メッセージパッシング中にノードのIDを誘導的に考慮することにより、既存のGNNアーキテクチャを拡張します。
既存のGNNをID-GNNに変換すると、挑戦ノード、エッジ、グラフプロパティ予測タスクの平均40%の精度が向上することを示す。
論文 参考訳(メタデータ) (2021-01-25T18:59:01Z) - Boost then Convolve: Gradient Boosting Meets Graph Neural Networks [6.888700669980625]
グラデーションブースト決定木(gbdt)は,異種データに対して他の機械学習手法よりも優れていることが示されている。
我々は,gbdt と gnn を共同で訓練し,両世界のベストを勝ち取る新しいアーキテクチャを提案する。
我々のモデルは、GNNの勾配更新に新しい木を適合させることにより、エンドツーエンドの最適化の恩恵を受ける。
論文 参考訳(メタデータ) (2021-01-21T10:46:41Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Bilinear Graph Neural Network with Neighbor Interactions [106.80781016591577]
グラフニューラルネットワーク(GNN)は,グラフデータ上で表現を学習し,予測を行う強力なモデルである。
本稿では,グラフ畳み込み演算子を提案し,隣接するノードの表現の対の相互作用で重み付け和を増大させる。
このフレームワークをBGNN(Bilinear Graph Neural Network)と呼び、隣ノード間の双方向相互作用によるGNN表現能力を向上させる。
論文 参考訳(メタデータ) (2020-02-10T06:43:38Z) - EdgeNets:Edge Varying Graph Neural Networks [179.99395949679547]
本稿では、EdgeNetの概念を通じて、最先端グラフニューラルネットワーク(GNN)を統一する一般的なフレームワークを提案する。
EdgeNetはGNNアーキテクチャであり、異なるノードが異なるパラメータを使って異なる隣人の情報を測定することができる。
これは、ノードが実行でき、既存のグラフ畳み込みニューラルネットワーク(GCNN)とグラフアテンションネットワーク(GAT)の1つの定式化の下で包含できる一般的な線形で局所的な操作である。
論文 参考訳(メタデータ) (2020-01-21T15:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。