論文の概要: GRAPES: Learning to Sample Graphs for Scalable Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2310.03399v1
- Date: Thu, 5 Oct 2023 09:08:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 16:54:40.125054
- Title: GRAPES: Learning to Sample Graphs for Scalable Graph Neural Networks
- Title(参考訳): GRAPES: スケーラブルなグラフニューラルネットワークのためのグラフのサンプル学習
- Authors: Taraneh Younesian, Thiviyan Thanapalasingam, Emile van Krieken, Daniel
Daza, Peter Bloem
- Abstract要約: グラフニューラルネットワーク(GNN)は、近隣情報を様々な方法で集約することで、グラフ内のノードの表現を学習する。
グラフサンプリングは、グラフ内のノードの小さな比率をサンプリングすることで、GNNのメモリ問題を解決する。
本稿では,GNNのトレーニングに有効なノードの集合を識別する適応型グラフサンプリング手法GRAPESを紹介する。
- 参考スコア(独自算出の注目度): 2.5936539522838506
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) learn the representation of nodes in a graph by
aggregating the neighborhood information in various ways. As these networks
grow in depth, their receptive field grows exponentially due to the increase in
neighborhood sizes, resulting in high memory costs. Graph sampling solves
memory issues in GNNs by sampling a small ratio of the nodes in the graph. This
way, GNNs can scale to much larger graphs. Most sampling methods focus on fixed
sampling heuristics, which may not generalize to different structures or tasks.
We introduce GRAPES, an adaptive graph sampling method that learns to identify
sets of influential nodes for training a GNN classifier. GRAPES uses a GFlowNet
to learn node sampling probabilities given the classification objectives. We
evaluate GRAPES across several small- and large-scale graph benchmarks and
demonstrate its effectiveness in accuracy and scalability. In contrast to
existing sampling methods, GRAPES maintains high accuracy even with small
sample sizes and, therefore, can scale to very large graphs. Our code is
publicly available at https://github.com/dfdazac/grapes.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、近隣情報を様々な方法で集約することで、グラフ内のノードの表現を学習する。
これらのネットワークが深く成長するにつれて、その受容野は近隣の規模の増加により指数関数的に増加し、高いメモリコストが生じる。
グラフサンプリングは、グラフ内のノードの小さな比率をサンプリングすることで、GNNのメモリ問題を解決する。
このように、gnnはもっと大きなグラフにスケールできる。
ほとんどのサンプリング方法は、異なる構造やタスクに一般化しない固定サンプリングヒューリスティックにフォーカスする。
本稿では,GNN分類器の訓練に有効なノードの集合を識別する適応型グラフサンプリング法GRAPESを紹介する。
GRAPESはGFlowNetを使用して、分類対象からノードサンプリング確率を学習する。
我々は,いくつかの小規模および大規模グラフベンチマークにおけるGRAPESを評価し,その精度と拡張性を示す。
既存のサンプリング手法とは対照的に、GRAPESは小さなサンプルサイズでも高い精度を維持しており、非常に大きなグラフにスケールすることができる。
私たちのコードはhttps://github.com/dfdazac/grapesで公開されています。
関連論文リスト
- Graph Sampling for Scalable and Expressive Graph Neural Networks on Homophilic Graphs [7.658211994479856]
グラフニューラルネットワーク(GNN)は多くのグラフ機械学習タスクに優れるが、大規模ネットワークへのスケーリングでは課題に直面している。
グラフ構造を保存するために特徴ホモフィリーを利用する新しいグラフサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-22T00:30:31Z) - The Heterophilic Snowflake Hypothesis: Training and Empowering GNNs for Heterophilic Graphs [59.03660013787925]
ヘテロフィリー・スノーフレーク仮説を導入し、ヘテロ親和性グラフの研究をガイドし、促進するための効果的なソリューションを提供する。
観察の結果,我々のフレームワークは多種多様なタスクのための多目的演算子として機能することがわかった。
さまざまなGNNフレームワークに統合することができ、パフォーマンスを詳細に向上し、最適なネットワーク深さを選択するための説明可能なアプローチを提供する。
論文 参考訳(メタデータ) (2024-06-18T12:16:00Z) - Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - AGS-GNN: Attribute-guided Sampling for Graph Neural Networks [2.826156508228215]
グラフニューラルネットワーク(GNN)のための新しい属性誘導サンプリングアルゴリズムであるAGS-GNNを提案する。
AGS-GNNはグラフのノードの特徴と接続構造を利用して、グラフのホモフィリーとヘテロフィリーの両方に同時に適応する。
AGS-GNNは、ノード分類のためのグラフ全体を用いて、最も優れたヘテロ親和性GNNに匹敵するテスト精度を達成している。
論文 参考訳(メタデータ) (2024-05-24T05:15:46Z) - A Local Graph Limits Perspective on Sampling-Based GNNs [7.601210044390688]
本稿では,グラフニューラルネットワーク(GNN)を大規模入力グラフ上で学習するための理論的枠組みを提案する。
大規模な入力グラフの小さなサンプルを用いてサンプリングベースGNNのトレーニングから得られたパラメータが、グラフ全体において同じアーキテクチャをトレーニングした結果の$epsilon$近傍にあることを証明した。
論文 参考訳(メタデータ) (2023-10-17T02:58:49Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - Make Heterophily Graphs Better Fit GNN: A Graph Rewiring Approach [43.41163711340362]
本稿では, ヘテロフィリーグラフリワイアリング(Deep Heterophily Graph Rewiring, DHGR)という手法を提案する。
我々の知る限りでは、ヘテロフィリーグラフに対するグラフ再構成を研究する最初の研究である。
論文 参考訳(メタデータ) (2022-09-17T06:55:21Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。