論文の概要: GRAPES: Learning to Sample Graphs for Scalable Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2310.03399v1
- Date: Thu, 5 Oct 2023 09:08:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 16:54:40.125054
- Title: GRAPES: Learning to Sample Graphs for Scalable Graph Neural Networks
- Title(参考訳): GRAPES: スケーラブルなグラフニューラルネットワークのためのグラフのサンプル学習
- Authors: Taraneh Younesian, Thiviyan Thanapalasingam, Emile van Krieken, Daniel
Daza, Peter Bloem
- Abstract要約: グラフニューラルネットワーク(GNN)は、近隣情報を様々な方法で集約することで、グラフ内のノードの表現を学習する。
グラフサンプリングは、グラフ内のノードの小さな比率をサンプリングすることで、GNNのメモリ問題を解決する。
本稿では,GNNのトレーニングに有効なノードの集合を識別する適応型グラフサンプリング手法GRAPESを紹介する。
- 参考スコア(独自算出の注目度): 2.5936539522838506
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) learn the representation of nodes in a graph by
aggregating the neighborhood information in various ways. As these networks
grow in depth, their receptive field grows exponentially due to the increase in
neighborhood sizes, resulting in high memory costs. Graph sampling solves
memory issues in GNNs by sampling a small ratio of the nodes in the graph. This
way, GNNs can scale to much larger graphs. Most sampling methods focus on fixed
sampling heuristics, which may not generalize to different structures or tasks.
We introduce GRAPES, an adaptive graph sampling method that learns to identify
sets of influential nodes for training a GNN classifier. GRAPES uses a GFlowNet
to learn node sampling probabilities given the classification objectives. We
evaluate GRAPES across several small- and large-scale graph benchmarks and
demonstrate its effectiveness in accuracy and scalability. In contrast to
existing sampling methods, GRAPES maintains high accuracy even with small
sample sizes and, therefore, can scale to very large graphs. Our code is
publicly available at https://github.com/dfdazac/grapes.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、近隣情報を様々な方法で集約することで、グラフ内のノードの表現を学習する。
これらのネットワークが深く成長するにつれて、その受容野は近隣の規模の増加により指数関数的に増加し、高いメモリコストが生じる。
グラフサンプリングは、グラフ内のノードの小さな比率をサンプリングすることで、GNNのメモリ問題を解決する。
このように、gnnはもっと大きなグラフにスケールできる。
ほとんどのサンプリング方法は、異なる構造やタスクに一般化しない固定サンプリングヒューリスティックにフォーカスする。
本稿では,GNN分類器の訓練に有効なノードの集合を識別する適応型グラフサンプリング法GRAPESを紹介する。
GRAPESはGFlowNetを使用して、分類対象からノードサンプリング確率を学習する。
我々は,いくつかの小規模および大規模グラフベンチマークにおけるGRAPESを評価し,その精度と拡張性を示す。
既存のサンプリング手法とは対照的に、GRAPESは小さなサンプルサイズでも高い精度を維持しており、非常に大きなグラフにスケールすることができる。
私たちのコードはhttps://github.com/dfdazac/grapesで公開されています。
関連論文リスト
- Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - A Local Graph Limits Perspective on Sampling-Based GNNs [7.601210044390688]
本稿では,グラフニューラルネットワーク(GNN)を大規模入力グラフ上で学習するための理論的枠組みを提案する。
大規模な入力グラフの小さなサンプルを用いてサンプリングベースGNNのトレーニングから得られたパラメータが、グラフ全体において同じアーキテクチャをトレーニングした結果の$epsilon$近傍にあることを証明した。
論文 参考訳(メタデータ) (2023-10-17T02:58:49Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Isometric Graph Neural Networks [5.306334746787569]
我々はIsometric Graph Neural Networks (IGNN) の学習手法を提案する。
IGNNは、任意のGNNアルゴリズムがノード間の距離を反映した表現を生成するために、入力表現空間と損失関数を変更する必要がある。
我々はケンドールのタウ(KT)の400%まで、一貫した実質的な改善を観察する。
論文 参考訳(メタデータ) (2020-06-16T22:51:13Z) - Graph Representation Learning Network via Adaptive Sampling [4.996520403438455]
Graph Attention Network(GAT)とGraphSAGEは、グラフ構造化データを操作するニューラルネットワークアーキテクチャである。
GraphSAGEが提起した課題のひとつは、グラフ構造に基づいた隣の機能をスマートに組み合わせる方法だ。
より効率的で,異なるエッジ型情報を組み込むことが可能な,これらの問題に対処する新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-06-08T14:36:20Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。