論文の概要: Transforming PageRank into an Infinite-Depth Graph Neural Network
- arxiv url: http://arxiv.org/abs/2207.00684v1
- Date: Fri, 1 Jul 2022 23:17:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 15:45:37.968012
- Title: Transforming PageRank into an Infinite-Depth Graph Neural Network
- Title(参考訳): PageRankを無限深度グラフニューラルネットワークに変換する
- Authors: Andreas Roth, Thomas Liebig
- Abstract要約: 人気のあるグラフニューラルネットワークは、ディープラーニングの他のアプリケーション領域における非常に深いアーキテクチャの成功にもかかわらず、浅いモデルである。
パーソナライズされたPageRankがパーソナライズベクトルを考慮に入れたGNNとPageRankの密接な接続を構築した。
この考え方を採用したPPRGNN(Personalized PageRank Graph Neural Network)を提案する。
- 参考スコア(独自算出の注目度): 1.0965065178451106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Popular graph neural networks are shallow models, despite the success of very
deep architectures in other application domains of deep learning. This reduces
the modeling capacity and leaves models unable to capture long-range
relationships. The primary reason for the shallow design results from
over-smoothing, which leads node states to become more similar with increased
depth. We build on the close connection between GNNs and PageRank, for which
personalized PageRank introduces the consideration of a personalization vector.
Adopting this idea, we propose the Personalized PageRank Graph Neural Network
(PPRGNN), which extends the graph convolutional network to an infinite-depth
model that has a chance to reset the neighbor aggregation back to the initial
state in each iteration. We introduce a nicely interpretable tweak to the
chance of resetting and prove the convergence of our approach to a unique
solution without placing any constraints, even when taking infinitely many
neighbor aggregations. As in personalized PageRank, our result does not suffer
from over-smoothing. While doing so, time complexity remains linear while we
keep memory complexity constant, independently of the depth of the network,
making it scale well to large graphs. We empirically show the effectiveness of
our approach for various node and graph classification tasks. PPRGNN
outperforms comparable methods in almost all cases.
- Abstract(参考訳): 人気のあるグラフニューラルネットワークは、ディープラーニングの他のアプリケーション領域における非常に深いアーキテクチャの成功にもかかわらず、浅いモデルである。
これによりモデリング能力が低下し、モデルが長距離関係を捉えることができない。
浅い設計の主な理由は過剰な平滑化であり、ノード状態はより深い深さで類似するようになる。
パーソナライズされたPageRankがパーソナライズベクトルを考慮に入れたGNNとPageRankの密接な接続を構築した。
この考え方を取り入れたPPRGNN(Personalized PageRank Graph Neural Network)を提案する。これはグラフ畳み込みネットワークを無限深度モデルに拡張し,各イテレーションで隣接するアグリゲーションを初期状態にリセットする。
我々は,無限に多数のアグリゲーションを取り入れても,制約を課すことなく,一意なソリューションへのアプローチの収束を,再設定する可能性に対して,うまく解釈可能な微調整を導入する。
パーソナライズされたPageRankのように、私たちの結果は過剰なスムーシングに苦しめられません。
その間、時間複雑性は線形のままであり、メモリの複雑さはネットワークの深さによらず一定であり、大きなグラフにうまくスケールする。
様々なノードやグラフ分類タスクに対するアプローチの有効性を実証的に示す。
PPRGNNは、ほぼ全てのケースで同等の手法より優れている。
関連論文リスト
- Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - AGNN: Alternating Graph-Regularized Neural Networks to Alleviate
Over-Smoothing [29.618952407794776]
グラフ畳み込み層(GCL)とグラフ埋め込み層(GEL)からなる交代グラフ正規化ニューラルネットワーク(AGNN)を提案する。
GELはラプラシアン埋め込み項を含むグラフ正規化最適化から導かれる。
AGNNは、いくつかの多層または多次グラフニューラルネットワークのパフォーマンス比較を含む、多数の実験を通じて評価されている。
論文 参考訳(メタデータ) (2023-04-14T09:20:03Z) - Search to Capture Long-range Dependency with Stacking GNNs for Graph
Classification [41.84399177525008]
浅いGNNは、より深いGNNに直面しているよく知られたオーバースムースな問題のため、より一般的である。
LRGNN(Long-Range Graph Neural Networks)と呼ばれるニューラルアーキテクチャサーチ(NAS)による新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-02-17T03:40:17Z) - Improving Graph Neural Networks at Scale: Combining Approximate PageRank
and CoreRank [20.948992161528466]
グラフニューラルネットワーク(GNN)の情報伝達のためのスケーラブルなソリューションを提案する。
CorePPRモデルは、およそパーソナライズされたPageRankとCoreRankの学習可能な凸の組み合わせを使用して、GNN内のマルチホップ近隣情報を拡散する。
CorePPRはPPRGoよりも大きなグラフで優れており、最も影響力のあるノードを選択することはスケーラビリティに特に関係している。
論文 参考訳(メタデータ) (2022-11-08T13:51:49Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Personalized PageRank Graph Attention Networks [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するフレームワークである。
GNNは通常、過剰なスムーシングを避けるために、各ノードの非常に限られた近傍の情報のみを使用する。
本研究では,パーソナライズされたPPR(Personalized PageRank)の限界分布をグラフ注意ネットワーク(GAT)に組み込んで,過度な平滑化を伴わずに近隣の大規模情報を反映する。
論文 参考訳(メタデータ) (2022-05-27T22:36:47Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - EIGNN: Efficient Infinite-Depth Graph Neural Networks [51.97361378423152]
グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:16:58Z) - SMGRL: Scalable Multi-resolution Graph Representation Learning [1.878741798127168]
グラフ畳み込みネットワーク(GCN)により、トポロジ的に認識されたノードの埋め込みを学習できる。
追加レイヤを追加することなく、ノード間の長距離依存関係をキャプチャすることはできない。
マルチレゾリューションノードの埋め込みを効率的に学習できるスケーラブルなマルチレゾリューショングラフ表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-29T21:48:48Z) - Graph Ordering: Towards the Optimal by Learning [69.72656588714155]
グラフ表現学習は、ノード分類、予測、コミュニティ検出など、多くのグラフベースのアプリケーションで顕著な成功を収めている。
しかし,グラフ圧縮やエッジ分割などのグラフアプリケーションでは,グラフ表現学習タスクに還元することは極めて困難である。
本稿では,このようなアプリケーションの背後にあるグラフ順序付け問題に対して,新しい学習手法を用いて対処することを提案する。
論文 参考訳(メタデータ) (2020-01-18T09:14:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。