論文の概要: Improving Graph Neural Networks at Scale: Combining Approximate PageRank
and CoreRank
- arxiv url: http://arxiv.org/abs/2211.04248v1
- Date: Tue, 8 Nov 2022 13:51:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 15:52:30.067595
- Title: Improving Graph Neural Networks at Scale: Combining Approximate PageRank
and CoreRank
- Title(参考訳): グラフニューラルネットワークの大規模化 - Approximate PageRankとCoreRankを組み合わせる
- Authors: Ariel R. Ramos Vela, Johannes F. Lutzeyer, Anastasios Giovanidis,
Michalis Vazirgiannis
- Abstract要約: グラフニューラルネットワーク(GNN)の情報伝達のためのスケーラブルなソリューションを提案する。
CorePPRモデルは、およそパーソナライズされたPageRankとCoreRankの学習可能な凸の組み合わせを使用して、GNN内のマルチホップ近隣情報を拡散する。
CorePPRはPPRGoよりも大きなグラフで優れており、最も影響力のあるノードを選択することはスケーラビリティに特に関係している。
- 参考スコア(独自算出の注目度): 20.948992161528466
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Graph Neural Networks (GNNs) have achieved great successes in many learning
tasks performed on graph structures. Nonetheless, to propagate information GNNs
rely on a message passing scheme which can become prohibitively expensive when
working with industrial-scale graphs. Inspired by the PPRGo model, we propose
the CorePPR model, a scalable solution that utilises a learnable convex
combination of the approximate personalised PageRank and the CoreRank to
diffuse multi-hop neighbourhood information in GNNs. Additionally, we
incorporate a dynamic mechanism to select the most influential neighbours for a
particular node which reduces training time while preserving the performance of
the model. Overall, we demonstrate that CorePPR outperforms PPRGo, particularly
on large graphs where selecting the most influential nodes is particularly
relevant for scalability. Our code is publicly available at:
https://github.com/arielramos97/CorePPR.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造上で実行される多くの学習タスクにおいて大きな成功を収めている。
それでも、GNNが情報伝達を行うには、産業規模のグラフを扱う場合、不当に高価になる可能性のあるメッセージパッシング方式に依存する。
PPRGoモデルに着想を得て,PageRankとCoreRankの学習可能な凸の組み合わせを利用して,GNN内の複数のホップ近傍情報を拡散するスケーラブルなソリューションCorePPRモデルを提案する。
さらに、モデルの性能を保ちながらトレーニング時間を短縮する、特定のノードに対して最も影響力のある隣人を選択するための動的メカニズムを組み込んだ。
全体として、CorePPRはPPRGoよりも優れており、特に大きなグラフでは、最も影響力のあるノードを選択することがスケーラビリティに特に関係している。
私たちのコードは、https://github.com/arielramos97/CorePPRで公開されています。
関連論文リスト
- Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - SPGNN: Recognizing Salient Subgraph Patterns via Enhanced Graph Convolution and Pooling [25.555741218526464]
グラフニューラルネットワーク(GNN)は、グラフやネットワークのような非ユークリッドデータ上での機械学習の分野に革命をもたらした。
本稿では,ノード表現をインジェクティブに更新する結合型グラフ畳み込み機構を提案する。
また,WL-SortPoolと呼ばれるグラフプーリングモジュールを設計し,重要なサブグラフパターンをディープラーニングで学習する。
論文 参考訳(メタデータ) (2024-04-21T13:11:59Z) - Graph Ladling: Shockingly Simple Parallel GNN Training without
Intermediate Communication [100.51884192970499]
GNNは、グラフを学習するニューラルネットワークの強力なファミリーである。
GNNのスケーリングは、肥大化または拡大によって、不健康な勾配、過度なスムースメント、情報のスカッシングといった問題に悩まされる。
本稿では,現在のGNNの深層化や拡張ではなく,GNNに適したモデルスープをデータ中心の視点で表現することを提案する。
論文 参考訳(メタデータ) (2023-06-18T03:33:46Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - HPGNN: Using Hierarchical Graph Neural Networks for Outdoor Point Cloud
Processing [0.7649716717097428]
自律ナビゲーションのためのポイントクラウド処理の最近の改良により、我々は、処理に階層的なグラフニューラルネットワークを使うことに重点を置いている。
階層型グラフニューラルネットワーク(HPGNN)を提案する。
様々なレベルのグラフ粗さでノードの特徴を学習し、情報を抽出する。
これにより、既存のポイントレベルのグラフネットワークが達成に苦慮している詳細を保ちながら、大きなポイントクラウド上で学習することができる。
論文 参考訳(メタデータ) (2022-06-05T11:18:09Z) - Personalized PageRank Graph Attention Networks [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するフレームワークである。
GNNは通常、過剰なスムーシングを避けるために、各ノードの非常に限られた近傍の情報のみを使用する。
本研究では,パーソナライズされたPPR(Personalized PageRank)の限界分布をグラフ注意ネットワーク(GAT)に組み込んで,過度な平滑化を伴わずに近隣の大規模情報を反映する。
論文 参考訳(メタデータ) (2022-05-27T22:36:47Z) - Inferential SIR-GN: Scalable Graph Representation Learning [0.4699313647907615]
グラフ表現学習法は、ネットワーク内のノードの数値ベクトル表現を生成する。
本研究では,ランダムグラフ上で事前学習されたモデルであるInferential SIR-GNを提案し,ノード表現を高速に計算する。
このモデルではノードの構造的役割情報を捉えることができ、ノードやグラフの分類タスクにおいて、目に見えないネットワーク上で優れた性能を示すことができる。
論文 参考訳(メタデータ) (2021-11-08T20:56:37Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。