論文の概要: Equivariant and Stable Positional Encoding for More Powerful Graph
Neural Networks
- arxiv url: http://arxiv.org/abs/2203.00199v1
- Date: Tue, 1 Mar 2022 03:08:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 15:43:17.004697
- Title: Equivariant and Stable Positional Encoding for More Powerful Graph
Neural Networks
- Title(参考訳): より強力なグラフニューラルネットワークのための等変および安定位置符号化
- Authors: Haorui Wang, Haoteng Yin, Muhan Zhang, Pan Li
- Abstract要約: グラフニューラルネットワーク(GNN)は多くのグラフベースの学習タスクにおいて大きなアドバンテージを示している。
近年,ランダムなノード特徴やノード距離特徴を用いてこの問題に対処する研究が多数提案されている。
本研究では,位置符号化(PE)技術によって与えられるノードの位置特徴を利用できるGNNを再検討する。
- 参考スコア(独自算出の注目度): 13.510204511136617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNN) have shown great advantages in many graph-based
learning tasks but often fail to predict accurately for a task-based on sets of
nodes such as link/motif prediction and so on. Many works have recently
proposed to address this problem by using random node features or node distance
features. However, they suffer from either slow convergence, inaccurate
prediction, or high complexity. In this work, we revisit GNNs that allow using
positional features of nodes given by positional encoding (PE) techniques such
as Laplacian Eigenmap, Deepwalk, etc. GNNs with PE often get criticized because
they are not generalizable to unseen graphs (inductive) or stable. Here, we
study these issues in a principled way and propose a provable solution, a class
of GNN layers termed PEG with rigorous mathematical analysis. PEG uses separate
channels to update the original node features and positional features. PEG
imposes permutation equivariance w.r.t. the original node features and rotation
equivariance w.r.t. the positional features simultaneously. Extensive link
prediction experiments over 8 real-world networks demonstrate the advantages of
PEG in generalization and scalability.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は多くのグラフベースの学習タスクにおいて大きな利点を示しているが、リンク/モチーフ予測などのノードセットに基づいてタスクを正確に予測することができないことが多い。
近年,ランダムなノード特徴やノード距離特徴を用いてこの問題に対処する研究が多数提案されている。
しかし、収束の遅さ、不正確な予測、あるいは高い複雑さに苦しむ。
本研究では,Laplacian EigenmapやDeepwalkなど,位置符号化(PE)技術によって与えられるノードの位置特徴を利用できるGNNを再検討する。
pe を持つ gnn は、しばしば、(インダクティブな)グラフや安定グラフに一般化できないため、批判される。
本稿では、これらの問題を原理的に研究し、厳密な数学的解析を伴うGNN層のクラスである証明可能な解を提案する。
PEGは独自のチャネルを使用して、元のノード機能と位置機能を更新する。
PEGは、元のノードの特徴である置換同値 w.r.t と回転同値 w.r.t を同時に課す。
8つの実世界のネットワーク上でのリンク予測実験は、一般化とスケーラビリティにおけるPEGの利点を示している。
関連論文リスト
- Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - ResNorm: Tackling Long-tailed Degree Distribution Issue in Graph Neural
Networks via Normalization [80.90206641975375]
本稿では,正規化によるGNNの性能向上に焦点をあてる。
グラフ中のノード次数の長期分布を調べることにより、GNNの新しい正規化法を提案する。
ResNormの$scale$操作は、尾ノードの精度を向上させるために、ノード単位の標準偏差(NStd)分布を再設定する。
論文 参考訳(メタデータ) (2022-06-16T13:49:09Z) - Graph Neural Networks with Precomputed Node Features [14.06168080755072]
グラフニューラルネットワーク(GNN)は、グラフ内のいくつかのグラフや、実際にはいくつかのノードを区別できない。
例えば, (i) 位置ノード埋め込み, (ii) 標準ノードID, (iii) ランダム特徴について述べる。
確立したGNNベンチマークで異なる拡張が競争力を発揮することを示し、いつ使うべきかをアドバイスする。
論文 参考訳(メタデータ) (2022-06-01T17:16:37Z) - Rewiring with Positional Encodings for Graph Neural Networks [37.394229290996364]
いくつかの最近の研究は、注意機構を備えたグラフニューラルネットワーク層の受容場を拡張するために位置符号化を使用している。
位置エンコーディングを用いて、受容場を$r$ホップ地区に拡張する。
各種モデルやデータセットの改良や,従来のGNNやグラフトランスフォーマーによる競争性能の向上を実現しています。
論文 参考訳(メタデータ) (2022-01-29T22:26:02Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - Position-Sensing Graph Neural Networks: Proactively Learning Nodes
Relative Positions [26.926733376090052]
既存のグラフニューラルネットワーク(GNN)は、メッセージパッシングとアグリゲーションのフレームワークを使用してノードの埋め込みを学習する。
本稿では,位置検出型グラフニューラルネットワーク(PSGNN)を提案する。
PSGNNs on average boost AUC more than 14% for pairwise node classification and 18% for link prediction。
論文 参考訳(メタデータ) (2021-05-24T15:30:30Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。