論文の概要: GRAND+: Scalable Graph Random Neural Networks
- arxiv url: http://arxiv.org/abs/2203.06389v1
- Date: Sat, 12 Mar 2022 09:41:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-20 01:47:33.485036
- Title: GRAND+: Scalable Graph Random Neural Networks
- Title(参考訳): GRAND+:スケーラブルグラフランダムニューラルネットワーク
- Authors: Wenzheng Feng, Yuxiao Dong, Tinglin Huang, Ziqi Yin, Xu Cheng, Evgeny
Kharlamov, Jie Tang
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ上の半教師付き学習に広く採用されている。
GRANDは計算コストのかかるデータ拡張処理に依存するため、大規模グラフを扱うことは困難である。
半教師付きグラフ学習のためのスケーラブルで高性能なGNNフレームワークGRAND+を提案する。
- 参考スコア(独自算出の注目度): 26.47857017550499
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) have been widely adopted for semi-supervised
learning on graphs. A recent study shows that the graph random neural network
(GRAND) model can generate state-of-the-art performance for this problem.
However, it is difficult for GRAND to handle large-scale graphs since its
effectiveness relies on computationally expensive data augmentation procedures.
In this work, we present a scalable and high-performance GNN framework GRAND+
for semi-supervised graph learning. To address the above issue, we develop a
generalized forward push (GFPush) algorithm in GRAND+ to pre-compute a general
propagation matrix and employ it to perform graph data augmentation in a
mini-batch manner. We show that both the low time and space complexities of
GFPush enable GRAND+ to efficiently scale to large graphs. Furthermore, we
introduce a confidence-aware consistency loss into the model optimization of
GRAND+, facilitating GRAND+'s generalization superiority. We conduct extensive
experiments on seven public datasets of different sizes. The results
demonstrate that GRAND+ 1) is able to scale to large graphs and costs less
running time than existing scalable GNNs, and 2) can offer consistent accuracy
improvements over both full-batch and scalable GNNs across all datasets.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ上の半教師付き学習に広く採用されている。
最近の研究では、グラフランダムニューラルネットワーク(grand)モデルがこの問題に対して最先端のパフォーマンスを生成できることが示されている。
しかし、計算コストのかかるデータ拡張手順に依存するため、GRANDが大規模グラフを扱うことは困難である。
本研究では,半教師付きグラフ学習のためのスケーラブルで高性能なGNNフレームワークGRAND+を提案する。
上記の問題に対処するために,grand+で一般化フォワードプッシュ(gfpush)アルゴリズムを開発し,汎用伝搬行列を事前計算し,グラフデータ拡張をミニバッチ方式で実行する。
GFPushの時間と空間の複雑さの両方が、GRAND+を大規模グラフに効率的にスケールできることが示される。
さらに、GRAND+のモデル最適化に信頼性を考慮した一貫性損失を導入し、GRAND+の一般化優位性を促進する。
異なるサイズの7つの公開データセットについて広範な実験を行う。
その結果、GRAND+は
1)大規模グラフへのスケールが可能で、既存のスケーラブルなgnnよりも実行時間が少なくなります。
2) すべてのデータセットにまたがるフルバッチとスケーラブルなgnnの両方に対して、一貫性のある精度改善を提供することができる。
関連論文リスト
- Graph Classification via Reference Distribution Learning: Theory and Practice [24.74871206083017]
グラフ参照分布学習(GRDL, Graph Reference Distribution Learning)は, グラフの効率的な分類法である。
GRDLはGNN層によって与えられるグラフの潜在ノード埋め込みを離散分布として扱い、グローバルプールなしで直接分類できる。
中規模および大規模グラフデータセットの実験は、GRDLが最先端よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-08-21T06:42:22Z) - What Can We Learn from State Space Models for Machine Learning on Graphs? [11.38076877943004]
グラフ構造化データに対する状態空間モデル(SSM)の原則拡張として,グラフ状態空間畳み込み(GSSC)を提案する。
グローバルな置換同変集合アグリゲーションと分解可能なグラフカーネルを活用することにより、GSSCはSSMの3つの利点を全て保持する。
グラフ機械学習のパワフルでスケーラブルなモデルとしてのGSSCの可能性を明らかにする。
論文 参考訳(メタデータ) (2024-06-09T15:03:36Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Graph Generative Model for Benchmarking Graph Neural Networks [73.11514658000547]
本稿では,プライバシ制御により実世界のグラフの分布を学習し,再現する新しいグラフ生成モデルを提案する。
我々のモデルは、GNNモデルのベンチマークに効果的に使用できる大規模な実世界のグラフの、プライバシ制御された合成代用をうまく生成することができる。
論文 参考訳(メタデータ) (2022-07-10T06:42:02Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z) - Graph Random Neural Network for Semi-Supervised Learning on Graphs [36.218650686748546]
グラフニューラルネットワーク(GNN)が広範に研究されているグラフ上での半教師あり学習の問題について検討する。
既存のGNNの多くは、ラベル付きノードが不足している場合、本質的に過度なスムース、非ロバスト性、および弱一般化の制限に悩まされている。
本稿では,これらの問題に対処するシンプルなフレームワークである Graph R NEURAL NETWORKS (GRAND) を提案する。
論文 参考訳(メタデータ) (2020-05-22T09:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。