論文の概要: GLISP: A Scalable GNN Learning System by Exploiting Inherent Structural
Properties of Graphs
- arxiv url: http://arxiv.org/abs/2401.03114v1
- Date: Sat, 6 Jan 2024 02:59:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 20:37:57.890804
- Title: GLISP: A Scalable GNN Learning System by Exploiting Inherent Structural
Properties of Graphs
- Title(参考訳): GLISP:グラフの構造的特性の爆発的展開によるスケーラブルなGNN学習システム
- Authors: Zhongshu Zhu, Bin Jing, Xiaopei Wan, Zhizhen Liu, Lei Liang, Jun zhou
- Abstract要約: 産業規模グラフのためのサンプリングベースGNN学習システムであるGLISPを提案する。
GLISPは、グラフパーティショナ、グラフサンプリングサービス、グラフ推論エンジンの3つのコアコンポーネントで構成されている。
実験の結果、GLISPはトレーニングと推論タスクのために既存のGNNシステムよりも最大6.53タイム、70.77タイムのスピードアップを達成した。
- 参考スコア(独自算出の注目度): 5.410321469222541
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As a powerful tool for modeling graph data, Graph Neural Networks (GNNs) have
received increasing attention in both academia and industry. Nevertheless, it
is notoriously difficult to deploy GNNs on industrial scale graphs, due to
their huge data size and complex topological structures. In this paper, we
propose GLISP, a sampling based GNN learning system for industrial scale
graphs. By exploiting the inherent structural properties of graphs, such as
power law distribution and data locality, GLISP addresses the scalability and
performance issues that arise at different stages of the graph learning
process. GLISP consists of three core components: graph partitioner, graph
sampling service and graph inference engine. The graph partitioner adopts the
proposed vertex-cut graph partitioning algorithm AdaDNE to produce balanced
partitioning for power law graphs, which is essential for sampling based GNN
systems. The graph sampling service employs a load balancing design that allows
the one hop sampling request of high degree vertices to be handled by multiple
servers. In conjunction with the memory efficient data structure, the
efficiency and scalability are effectively improved. The graph inference engine
splits the $K$-layer GNN into $K$ slices and caches the vertex embeddings
produced by each slice in the data locality aware hybrid caching system for
reuse, thus completely eliminating redundant computation caused by the data
dependency of graph. Extensive experiments show that GLISP achieves up to
$6.53\times$ and $70.77\times$ speedups over existing GNN systems for training
and inference tasks, respectively, and can scale to the graph with over 10
billion vertices and 40 billion edges with limited resources.
- Abstract(参考訳): グラフデータモデリングの強力なツールとして、グラフニューラルネットワーク(GNN)は、学術と産業の両方で注目を集めている。
それでも、巨大なデータサイズと複雑なトポロジ構造のため、GNNを産業規模のグラフにデプロイすることは極めて困難である。
本稿では,産業規模グラフのためのサンプリングベースGNN学習システムであるGLISPを提案する。
電力法分布やデータ局所性などのグラフの固有の構造特性を活用することで、GLISPはグラフ学習プロセスの異なる段階で発生するスケーラビリティとパフォーマンスの問題に対処する。
GLISPは、グラフパーティショナ、グラフサンプリングサービス、グラフ推論エンジンの3つのコアコンポーネントで構成されている。
グラフパーティショナは、提案された頂点カットグラフ分割アルゴリズムをアドバンスとして、サンプリングベースのgnnシステムで必須となるパワーローグラフのバランス付きパーティショニングを生成する。
グラフサンプリングサービスはロードバランシング設計を採用しており、高次頂点の1つのホップサンプリング要求を複数のサーバで処理することができる。
メモリ効率の良いデータ構造とともに、効率性とスケーラビリティが効果的に向上する。
グラフ推論エンジンは、$K$層GNNを$K$スライスに分割し、再利用のためのデータ局所性を考慮したハイブリッドキャッシュシステムにおいて、各スライスによって生成された頂点埋め込みをキャッシュする。
大規模な実験によると、GLISPはトレーニングタスクと推論タスクのために既存のGNNシステムのスピードアップを最大6.53\times$と70.77\times$で達成し、限られたリソースを持つ100億以上の頂点と400億のエッジを持つグラフにスケールできる。
関連論文リスト
- Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - HUGE: Huge Unsupervised Graph Embeddings with TPUs [6.108914274067702]
グラフ埋め込み(Graph Embedding)は、グラフ内のノードを連続的に表現するプロセスである。
高帯域幅メモリを利用した高性能グラフ埋め込みアーキテクチャを提案する。
実・合成大規模データセット上での埋め込み空間の品質を検証する。
論文 参考訳(メタデータ) (2023-07-26T20:29:15Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Imbalanced Graph Classification via Graph-of-Graph Neural Networks [16.589373163769853]
グラフニューラルネットワーク(GNN)は、グラフの分類ラベルを識別するグラフ表現の学習において、前例のない成功を収めている。
本稿では,グラフ不均衡問題を軽減する新しいフレームワークであるグラフ・オブ・グラフニューラルネットワーク(G$2$GNN)を提案する。
提案したG$2$GNNは,F1-macroとF1-microのスコアにおいて,多くのベースラインを約5%上回る性能を示した。
論文 参考訳(メタデータ) (2021-12-01T02:25:47Z) - LSP : Acceleration and Regularization of Graph Neural Networks via
Locality Sensitive Pruning of Graphs [2.4250821950628234]
グラフニューラルネットワーク(GNN)は、グラフ関連のタスクのための非常に成功したツールとして登場した。
大きなグラフは、性能を損なうことなく取り除くことができる多くの冗長なコンポーネントを含むことが多い。
そこで我々はLocality-Sensitive Hashingに基づくグラフプルーニングのためのLocality-Sensitive Pruning(LSP)という体系的手法を提案する。
論文 参考訳(メタデータ) (2021-11-10T14:12:28Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - GraphTheta: A Distributed Graph Neural Network Learning System With
Flexible Training Strategy [5.466414428765544]
新しい分散グラフ学習システムGraphThetaを紹介します。
複数のトレーニング戦略をサポートし、大規模グラフ上で効率的でスケーラブルな学習を可能にします。
この仕事は、文学における10億規模のネットワーク上で実施された最大のエッジアトリビュートGNN学習タスクを表します。
論文 参考訳(メタデータ) (2021-04-21T14:51:33Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - MathNet: Haar-Like Wavelet Multiresolution-Analysis for Graph
Representation and Learning [31.42901131602713]
本稿では,マルチレゾリューション・ハール型ウェーブレット(MathNet)を用いたグラフニューラルネットワークのためのフレームワークを提案する。
提案したMathNetは、特にデータセットにおいて、既存のGNNモデルよりも優れている。
論文 参考訳(メタデータ) (2020-07-22T05:00:59Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。