論文の概要: Communication-Efficient Graph Neural Networks with Probabilistic
Neighborhood Expansion Analysis and Caching
- arxiv url: http://arxiv.org/abs/2305.03152v1
- Date: Thu, 4 May 2023 21:04:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 16:05:11.811319
- Title: Communication-Efficient Graph Neural Networks with Probabilistic
Neighborhood Expansion Analysis and Caching
- Title(参考訳): 確率的近傍拡大解析とキャッシングを用いた通信効率の高いグラフニューラルネットワーク
- Authors: Tim Kaler, Alexandros-Stavros Iliopoulos, Philip Murzynowski, Tao B.
Schardl, Charles E. Leiserson, Jie Chen
- Abstract要約: 大規模グラフ上でのグラフニューラルネットワーク(GNN)のトレーニングと推論は、GNNの登場以来活発に研究されている。
本稿では,分散環境におけるノードワイドサンプリングを用いたGNNによるミニバッチ学習と推論について述べる。
分割された特徴データを扱うために,従来のSALIENTシステムを拡張したSALIENT++を提案する。
- 参考スコア(独自算出の注目度): 59.8522166385372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training and inference with graph neural networks (GNNs) on massive graphs
has been actively studied since the inception of GNNs, owing to the widespread
use and success of GNNs in applications such as recommendation systems and
financial forensics. This paper is concerned with minibatch training and
inference with GNNs that employ node-wise sampling in distributed settings,
where the necessary partitioning of vertex features across distributed storage
causes feature communication to become a major bottleneck that hampers
scalability. To significantly reduce the communication volume without
compromising prediction accuracy, we propose a policy for caching data
associated with frequently accessed vertices in remote partitions. The proposed
policy is based on an analysis of vertex-wise inclusion probabilities (VIP)
during multi-hop neighborhood sampling, which may expand the neighborhood far
beyond the partition boundaries of the graph. VIP analysis not only enables the
elimination of the communication bottleneck, but it also offers a means to
organize in-memory data by prioritizing GPU storage for the most frequently
accessed vertex features. We present SALIENT++, which extends the prior
state-of-the-art SALIENT system to work with partitioned feature data and
leverages the VIP-driven caching policy. SALIENT++ retains the local training
efficiency and scalability of SALIENT by using a deep pipeline and drastically
reducing communication volume while consuming only a fraction of the storage
required by SALIENT. We provide experimental results with the Open Graph
Benchmark data sets and demonstrate that training a 3-layer GraphSAGE model
with SALIENT++ on 8 single-GPU machines is 7.1 faster than with SALIENT on 1
single-GPU machine, and 12.7 faster than with DistDGL on 8 single-GPU machines.
- Abstract(参考訳): 大規模グラフ上でのグラフニューラルネットワーク(GNN)のトレーニングと推論は、リコメンデーションシステムや金融法医学などの応用において、GNNの広範の使用と成功のために、GNNの開始以来活発に研究されている。
本稿では,分散ストレージ間での頂点機能のパーティショニングが要求されるため,分散環境におけるノードワイドサンプリングを用いたGNNによる最小限の学習と推論について述べる。
予測精度を損なうことなく通信量を大幅に削減するため,リモートパーティションにおいて頻繁にアクセスされる頂点に関連するデータをキャッシュするためのポリシーを提案する。
提案手法は,マルチホップ近傍サンプリングにおける頂点ワイド包摂確率(VIP)の分析に基づいており,グラフの分割境界をはるかに超える範囲を拡大する可能性がある。
VIP分析は通信ボトルネックの排除を可能にするだけでなく、最も頻繁にアクセスされる頂点機能に対してGPUストレージを優先することで、インメモリデータを整理する手段も提供する。
本稿では,従来のSALIENTシステムを分割した特徴データを扱うように拡張し,VIP方式のキャッシュポリシを活用するSALIENT++を提案する。
SALIENT++は、深層パイプラインを使用してSALIENTのローカルトレーニング効率とスケーラビリティを維持し、通信容量を大幅に削減し、SALIENTに必要なストレージのごく一部しか消費しない。
我々はOpen Graph Benchmarkデータセットを用いて実験結果を提供し、8個のシングルGPUマシン上でのSALIENT++を用いた3層グラフSAGEモデルのトレーニングは、1個のシングルGPUマシン上でのSALIENTよりも7.1、シングルGPUマシン上でのDistDGLよりも12.7高速であることを示した。
関連論文リスト
- MassiveGNN: Efficient Training via Prefetching for Massively Connected Distributed Graphs [11.026326555186333]
本稿では,現在最先端のAmazon DistDGL分散GNNフレームワーク上に,パラメータ化された連続プリフェッチと消去方式を提案する。
NERSC(National Energy Research Scientific Computing Center)のPerlmutterスーパーコンピュータでは、エンドツーエンドのトレーニング性能が15~40%向上している。
論文 参考訳(メタデータ) (2024-10-30T05:10:38Z) - LSM-GNN: Large-scale Storage-based Multi-GPU GNN Training by Optimizing Data Transfer Scheme [12.64360444043247]
グラフニューラルネットワーク(GNN)は、今日ではリコメンデーションシステム、不正検出、ノード/リンク分類タスクで広く使われている。
限られたメモリ容量に対応するため、従来のGNNトレーニングアプローチでは、グラフ分割とシャーディング技術を使用している。
大規模ストレージベースマルチGPUGNNフレームワーク(LSM-GNN)を提案する。
LSM-GNNは、静的ノード情報と動的ノード情報の両方を用いて、キャッシュ空間をインテリジェントに管理するハイブリッドな消去ポリシーを組み込んでいる。
論文 参考訳(メタデータ) (2024-07-21T20:41:39Z) - NeuraChip: Accelerating GNN Computations with a Hash-based Decoupled Spatial Accelerator [3.926150707772004]
我々はGustavsonのアルゴリズムに基づく新しいGNN空間加速器であるNeuraChipを紹介する。
NeuraChipはスパース行列乗算における乗算と加算計算を分離する。
我々はまた、包括的なパフォーマンス解析のためのオープンソース、サイクル精度、マルチスレッドモジュールシミュレータであるNeuraSimを提示する。
論文 参考訳(メタデータ) (2024-04-23T20:51:09Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - EGRC-Net: Embedding-induced Graph Refinement Clustering Network [66.44293190793294]
埋め込みによるグラフリファインメントクラスタリングネットワーク (EGRC-Net) という新しいグラフクラスタリングネットワークを提案する。
EGRC-Netは学習した埋め込みを利用して初期グラフを適応的に洗練し、クラスタリング性能を向上させる。
提案手法はいくつかの最先端手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-11-19T09:08:43Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - BGL: GPU-Efficient GNN Training by Optimizing Graph Data I/O and
Preprocessing [0.0]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワーク(DNN)の成功を非ユークリッドグラフデータに拡張した。
既存のシステムは、数十億のノードとエッジを持つ巨大なグラフをGPUでトレーニングする非効率である。
本稿では,ボトルネックに対処するための分散GNN学習システムであるBGLを提案する。
論文 参考訳(メタデータ) (2021-12-16T00:37:37Z) - Accelerating Training and Inference of Graph Neural Networks with Fast
Sampling and Pipelining [58.10436813430554]
グラフニューラルネットワーク(GNN)のミニバッチトレーニングには、多くの計算とデータ移動が必要である。
我々は,分散マルチGPU環境において,近傍サンプリングを用いたミニバッチトレーニングを行うことを支持する。
本稿では,これらのボトルネックを緩和する一連の改良点について述べる。
また,サンプリングによる推論を支援する実験分析を行い,試験精度が実質的に損なわれていないことを示す。
論文 参考訳(メタデータ) (2021-10-16T02:41:35Z) - GNNIE: GNN Inference Engine with Load-balancing and Graph-Specific
Caching [2.654276707313136]
GNNIEは、幅広いグラフニューラルネットワーク(GNN)を実行するために設計されたアクセラレータである。
i)ノード特徴オペランドをブロックに分割し、 (ii) 再注文と再配布を行い、 (iii) 処理要素間の通信オーバーヘッドの少ない柔軟なMACアーキテクチャを使用する。
GNNIEは、CPU上の8890倍、グラフアテンションネットワーク(GAT)、グラフ畳み込みネットワーク(GCN)、GraphSAGE、GINConv、DiffPool上の複数のデータセット上のGPU上の295倍の平均スピードアップを達成する。
論文 参考訳(メタデータ) (2021-05-21T20:07:14Z) - DistGNN: Scalable Distributed Training for Large-Scale Graph Neural
Networks [58.48833325238537]
大規模グラフの構造を学ぶためにGNN(Graph Neural Networks)のフルバッチトレーニングは、実現可能な数百の計算ノードにスケールする必要がある重要な問題です。
本稿では,CPUクラスタ上でのフルバッチトレーニングのためのDGL(Deep Graph Library)を最適化したGNNについて述べる。
4つの一般的なGNNベンチマークデータセットの結果は、1つのCPUソケットを使用して最大3.7倍のスピードアップ、128のCPUソケットを使用して最大97倍のスピードアップを示す。
論文 参考訳(メタデータ) (2021-04-14T08:46:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。