論文の概要: Adaptive and Interpretable Graph Convolution Networks Using Generalized
Pagerank
- arxiv url: http://arxiv.org/abs/2108.10636v1
- Date: Tue, 24 Aug 2021 10:39:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 14:13:35.557369
- Title: Adaptive and Interpretable Graph Convolution Networks Using Generalized
Pagerank
- Title(参考訳): 一般化ページランクを用いた適応的・解釈可能なグラフ畳み込みネットワーク
- Authors: Kishan Wimalawarne and Taiji Suzuki
- Abstract要約: 我々はGCNIIネットワークの各層で一般化されたページランクを学習するためにAdaGPRを提案する。
AdaGPR の一般化は正規化隣接行列の固有値スペクトルによって制限されることを示す。
- 参考スコア(独自算出の注目度): 44.22407074673142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate adaptive layer-wise graph convolution in deep GCN models. We
propose AdaGPR to learn generalized Pageranks at each layer of a GCNII network
to induce adaptive convolution. We show that the generalization bound for
AdaGPR is bounded by a polynomial of the eigenvalue spectrum of the normalized
adjacency matrix in the order of the number of generalized Pagerank
coefficients. By analysing the generalization bounds we show that oversmoothing
depends on both the convolutions by the higher orders of the normalized
adjacency matrix and the depth of the model. We performed evaluations on
node-classification using benchmark real data and show that AdaGPR provides
improved accuracies compared to existing graph convolution networks while
demonstrating robustness against oversmoothing. Further, we demonstrate that
analysis of coefficients of layer-wise generalized Pageranks allows us to
qualitatively understand convolution at each layer enabling model
interpretations.
- Abstract(参考訳): 深層gcnモデルにおける適応層間グラフ畳み込みについて検討する。
我々は、GCNIIネットワークの各層で一般化されたページランクを学習し、適応的な畳み込みを誘導するAdaGPRを提案する。
AdaGPR の一般化は正規化隣接行列の固有値スペクトルの多項式によって一般化されたページランク係数の順に有界であることが示される。
一般化境界の解析により、オーバースムーシングは正規化隣接行列の高次による畳み込みとモデルの深さの両方に依存することが分かる。
我々は,ベンチマーク実データを用いたノード分類の評価を行い,既存のグラフ畳み込みネットワークに比べてadagprは精度が向上し,オーバースムーシングに対するロバスト性が示された。
さらに、レイヤーワイズ一般化ページランクの係数の解析により、モデル解釈を可能にする各レイヤにおける畳み込みを質的に理解できることを示す。
関連論文リスト
- A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - What Improves the Generalization of Graph Transformers? A Theoretical Dive into the Self-attention and Positional Encoding [67.59552859593985]
自己アテンションと位置エンコーディングを組み込んだグラフトランスフォーマーは、さまざまなグラフ学習タスクのための強力なアーキテクチャとして登場した。
本稿では,半教師付き分類のための浅いグラフ変換器の理論的検討について紹介する。
論文 参考訳(メタデータ) (2024-06-04T05:30:16Z) - GRANOLA: Adaptive Normalization for Graph Neural Networks [28.993479890213617]
グラフニューラルネットワーク(GNN)層に対するグラフ適応正規化層であるGRANOLAを提案する。
既存の正規化レイヤとは異なり、GRANOLAはグラフの特定の特性に適応してノードの特徴を正規化する。
各種グラフベンチマークの実証評価は,既存の正規化手法よりもGRANOLAの優れた性能を示している。
論文 参考訳(メタデータ) (2024-04-20T10:44:13Z) - A Unified Approach to Controlling Implicit Regularization via Mirror
Descent [18.536453909759544]
ミラー降下(MD)は勾配降下(GD)の顕著な一般化である
MDを効率的に実装することができ、適切な条件下での高速収束を享受できることを示す。
論文 参考訳(メタデータ) (2023-06-24T03:57:26Z) - Towards Better Generalization with Flexible Representation of
Multi-Module Graph Neural Networks [0.27195102129094995]
ランダムグラフ生成器を用いて,グラフサイズと構造特性がGNNの予測性能に与える影響について検討する。
本稿では,GNNが未知のグラフに一般化できるかどうかを決定する上で,平均ノード次数が重要な特徴であることを示す。
集約された入力に対して単一の正準非線形変換を一般化することにより、ネットワークが新しいグラフに柔軟に対応可能なマルチモジュールGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-14T12:13:59Z) - Graph Polynomial Convolution Models for Node Classification of
Non-Homophilous Graphs [52.52570805621925]
本研究では,高階グラフ畳み込みからの効率的な学習と,ノード分類のための隣接行列から直接学習する。
得られたモデルが新しいグラフと残留スケーリングパラメータをもたらすことを示す。
提案手法は,非親和性パラメータのノード分類における精度の向上を実証する。
論文 参考訳(メタデータ) (2022-09-12T04:46:55Z) - SLGCN: Structure Learning Graph Convolutional Networks for Graphs under
Heterophily [5.619890178124606]
本稿では2つの側面から問題を緩和する構造学習グラフ畳み込みネットワーク(SLGCN)を提案する。
具体的には、全ての類似ノードから特徴表現を効率的に集約するために、アンカーを用いた効率的なスペクトルクラスタリング(ESC-ANCH)を設計する。
幅広いベンチマークデータセットの実験結果は、提案されたSLGCNが、最先端のGNNよりも優れていることを示している。
論文 参考訳(メタデータ) (2021-05-28T13:00:38Z) - Generalization bounds for graph convolutional neural networks via
Rademacher complexity [0.3553493344868413]
単一の隠れ層を有するグラフ畳み込みネットワーク(GCN)のサンプル複雑性について検討する。
これらの複雑性の導出はグラフ畳み込みフィルタの最大の固有値とグラフの次数分布に明示的に依存する。
論文 参考訳(メタデータ) (2021-02-20T02:51:13Z) - When Does Preconditioning Help or Hurt Generalization? [74.25170084614098]
本稿では,第1次および第2次手法のテキスト単純バイアスが一般化特性の比較にどのように影響するかを示す。
本稿では、バイアス分散トレードオフを管理するためのいくつかのアプローチと、GDとNGDを補間する可能性について論じる。
論文 参考訳(メタデータ) (2020-06-18T17:57:26Z) - Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes [144.6048446370369]
グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T10:02:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。