論文の概要: Adversarial Permutation Guided Node Representations for Link Prediction
- arxiv url: http://arxiv.org/abs/2012.08974v2
- Date: Sun, 28 Mar 2021 04:13:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-09 12:37:11.659106
- Title: Adversarial Permutation Guided Node Representations for Link Prediction
- Title(参考訳): リンク予測のための逆順順列ノード表現法
- Authors: Indradyumna Roy, Abir De, Soumen Chakrabarti
- Abstract要約: リンク予測(LP)アルゴリズムは、将来新たなエッジが成立する可能性のあるノードペアを特定する。
ほとんどのlpアルゴリズムは、現在不要なノード対のスコアを推定し、このスコアでランク付けする。
本研究では,リカレントで順序に敏感なアグリゲータを用いて隣り合う特徴を集約し,隣り合う順列の逆生成器によって攻撃されるlpロスを直接最小化するpermgnnを提案する。
- 参考スコア(独自算出の注目度): 27.31800918961859
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: After observing a snapshot of a social network, a link prediction (LP)
algorithm identifies node pairs between which new edges will likely materialize
in future. Most LP algorithms estimate a score for currently non-neighboring
node pairs, and rank them by this score. Recent LP systems compute this score
by comparing dense, low dimensional vector representations of nodes. Graph
neural networks (GNNs), in particular graph convolutional networks (GCNs), are
popular examples. For two nodes to be meaningfully compared, their embeddings
should be indifferent to reordering of their neighbors. GNNs typically use
simple, symmetric set aggregators to ensure this property, but this design
decision has been shown to produce representations with limited expressive
power. Sequence encoders are more expressive, but are permutation sensitive by
design. Recent efforts to overcome this dilemma turn out to be unsatisfactory
for LP tasks. In response, we propose PermGNN, which aggregates neighbor
features using a recurrent, order-sensitive aggregator and directly minimizes
an LP loss while it is `attacked' by adversarial generator of neighbor
permutations. By design, PermGNN{} has more expressive power compared to
earlier symmetric aggregators. Next, we devise an optimization framework to map
PermGNN's node embeddings to a suitable locality-sensitive hash, which speeds
up reporting the top-$K$ most likely edges for the LP task. Our experiments on
diverse datasets show that \our outperforms several state-of-the-art link
predictors by a significant margin, and can predict the most likely edges fast.
- Abstract(参考訳): ソーシャルネットワークのスナップショットを観察した後、リンク予測(LP)アルゴリズムは、将来新たなエッジが成立する可能性のあるノードペアを特定する。
ほとんどのlpアルゴリズムは、現在不要なノード対のスコアを推定し、このスコアでランク付けする。
最近のlpシステムは、ノードの密度の低い低次元ベクトル表現を比較することでこのスコアを計算する。
グラフニューラルネットワーク(GNN)、特にグラフ畳み込みネットワーク(GCN)は一般的な例である。
2つのノードを有意義に比較するためには、それらの埋め込みは隣人の並べ替えとは無関係であるべきである。
GNNは通常、この特性を保証するために単純で対称な集合アグリゲータを使用するが、この設計決定は表現力に制限のある表現を生成することが示されている。
シーケンスエンコーダはより表現力が高いが、設計に敏感である。
このジレンマを克服する最近の取り組みは、LPタスクに不満足であることが判明した。
提案するPermGNNは,リカレントかつオーダーセンシティブなアグリゲータを用いて隣接した特徴を集約し,隣り合う置換の逆生成器によって「攻撃」される場合,LP損失を直接最小化する。
設計上、PermGNN{} は以前の対称アグリゲータよりも表現力が高い。
次に、PermGNNのノード埋め込みを適切な局所性に敏感なハッシュにマッピングする最適化フレームワークを考案し、LPタスクのトップ$K$のエッジの報告を高速化する。
多様なデータセットに関する実験によれば、\ourは最先端のリンク予測器をかなり上回っており、最も可能性の高いエッジを素早く予測できる。
関連論文リスト
- Efficient Link Prediction via GNN Layers Induced by Negative Sampling [92.05291395292537]
リンク予測のためのグラフニューラルネットワーク(GNN)は、緩やかに2つの広いカテゴリに分けられる。
まず、Emphnode-wiseアーキテクチャは各ノードの個別の埋め込みをプリコンパイルし、後に単純なデコーダで結合して予測を行う。
第二に、エンフェッジワイド法は、ペアワイド関係の表現を強化するために、エッジ固有のサブグラフ埋め込みの形成に依存している。
論文 参考訳(メタデータ) (2023-10-14T07:02:54Z) - Refined Edge Usage of Graph Neural Networks for Edge Prediction [51.06557652109059]
We propose a novel edge prediction paradigm named Edge-aware Message PassIng neuRal nEtworks (EMPIRE)。
まず,各エッジをトポロジや監督のためにのみ使用するエッジ分割手法を提案する。
監視エッジで接続されたペアと接続されていないペアの差を強調するために、さらにメッセージを重み付けして、その差を反映できる相対的なペアを強調します。
論文 参考訳(メタデータ) (2022-12-25T23:19:56Z) - Graph Neural Networks for Link Prediction with Subgraph Sketching [15.808095529382138]
ELPH(Efficient Link Prediction with Hashing)と呼ばれる新しいフルグラフGNNを提案する。
SGNNのキーコンポーネントを明示的なサブグラフ構成なしで近似するために、サブグラフのスケッチをメッセージとして渡す。
多くの標準LPベンチマークで既存のSGNNモデルより優れており、桁違いに高速である。
論文 参考訳(メタデータ) (2022-09-30T14:20:07Z) - Simplifying Node Classification on Heterophilous Graphs with Compatible
Label Propagation [6.071760028190454]
本稿では,グラフに対する半教師付きノード分類において,グラフアルゴリズムのラベル伝搬と浅いニューラルネットワークを組み合わせることで,GNNに匹敵する性能が得られることを示す。
本稿では,ノードが反対クラスのノードに接続されることの多い低ホモフィリーグラフ上では,このアプローチが不十分であることを示す。
アルゴリズムはまずクラス互換行列を学習し、次にクラス適合性によって重み付けされたLPアルゴリズムを用いてラベル予測を集約する。
論文 参考訳(メタデータ) (2022-05-19T08:34:34Z) - Graph Neural Networks with Feature and Structure Aware Random Walk [7.143879014059894]
典型的な好適なグラフでは、エッジを指向する可能性があり、エッジをそのまま扱うか、あるいは単純に非指向にするかは、GNNモデルの性能に大きな影響を与える。
そこで我々は,グラフの方向性を適応的に学習するモデルを開発し,ノード間の長距離相関を生かした。
論文 参考訳(メタデータ) (2021-11-19T08:54:21Z) - VQ-GNN: A Universal Framework to Scale up Graph Neural Networks using
Vector Quantization [70.8567058758375]
VQ-GNNは、Vector Quantization(VQ)を使用して、パフォーマンスを損なうことなく、畳み込みベースのGNNをスケールアップするための普遍的なフレームワークである。
我々のフレームワークは,グラフ畳み込み行列の低ランク版と組み合わせた量子化表現を用いて,GNNの「隣の爆発」問題を回避する。
論文 参考訳(メタデータ) (2021-10-27T11:48:50Z) - Graph Pointer Neural Networks [11.656981519694218]
上述の課題に対処するために,グラフポインタニューラルネットワーク(GPNN)を提案する。
我々は、多数のマルチホップ地区から最も関連性の高いノードを選択するためにポインタネットワークを利用する。
GPNNは最先端手法の分類性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-10-03T10:18:25Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z) - Towards Deeper Graph Neural Networks with Differentiable Group
Normalization [61.20639338417576]
グラフニューラルネットワーク(GNN)は、隣接するノードを集約することでノードの表現を学習する。
オーバースムーシングは、レイヤーの数が増えるにつれてGNNのパフォーマンスが制限される重要な問題のひとつです。
2つのオーバースムースなメトリクスと新しいテクニック、すなわち微分可能群正規化(DGN)を導入する。
論文 参考訳(メタデータ) (2020-06-12T07:18:02Z) - Bilinear Graph Neural Network with Neighbor Interactions [106.80781016591577]
グラフニューラルネットワーク(GNN)は,グラフデータ上で表現を学習し,予測を行う強力なモデルである。
本稿では,グラフ畳み込み演算子を提案し,隣接するノードの表現の対の相互作用で重み付け和を増大させる。
このフレームワークをBGNN(Bilinear Graph Neural Network)と呼び、隣ノード間の双方向相互作用によるGNN表現能力を向上させる。
論文 参考訳(メタデータ) (2020-02-10T06:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。