論文の概要: GNNIE: GNN Inference Engine with Load-balancing and Graph-Specific
Caching
- arxiv url: http://arxiv.org/abs/2105.10554v1
- Date: Fri, 21 May 2021 20:07:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 14:57:06.094054
- Title: GNNIE: GNN Inference Engine with Load-balancing and Graph-Specific
Caching
- Title(参考訳): GNNIE: ロードバランシングとグラフ特化キャッシングを備えたGNN推論エンジン
- Authors: Sudipta Mondal, Susmita Dey Manasi, Kishor Kunal, and Sachin S.
Sapatnekar
- Abstract要約: GNNIEは、幅広いグラフニューラルネットワーク(GNN)を実行するために設計されたアクセラレータである。
i)ノード特徴オペランドをブロックに分割し、 (ii) 再注文と再配布を行い、 (iii) 処理要素間の通信オーバーヘッドの少ない柔軟なMACアーキテクチャを使用する。
GNNIEは、CPU上の8890倍、グラフアテンションネットワーク(GAT)、グラフ畳み込みネットワーク(GCN)、GraphSAGE、GINConv、DiffPool上の複数のデータセット上のGPU上の295倍の平均スピードアップを達成する。
- 参考スコア(独自算出の注目度): 2.654276707313136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analysis engines based on Graph Neural Networks (GNNs) are vital for many
real-world problems that model relationships using large graphs. Challenges for
a GNN hardware platform include the ability to (a) host a variety of GNNs, (b)
handle high sparsity in input node feature vectors and the graph adjacency
matrix and the accompanying random memory access patterns, and (c) maintain
load-balanced computation in the face of uneven workloads induced by high
sparsity and power-law vertex degree distributions in real datasets. The
proposes GNNIE, an accelerator designed to run a broad range of GNNs. It
tackles workload imbalance by (i) splitting node feature operands into blocks,
(ii) reordering and redistributing computations, and (iii) using a flexible MAC
architecture with low communication overheads among the processing elements. In
addition, it adopts a graph partitioning scheme and a graph-specific caching
policy that efficiently uses off-chip memory bandwidth that is well suited to
the characteristics of real-world graphs. Random memory access effects are
mitigated by partitioning and degree-aware caching to enable the reuse of
high-degree vertices. GNNIE achieves average speedups of over 8890x over a CPU
and 295x over a GPU over multiple datasets on graph attention networks (GATs),
graph convolutional networks (GCNs), GraphSAGE, GINConv, and DiffPool, Compared
to prior approaches, GNNIE achieves an average speedup of 9.74x over HyGCN for
GCN, GraphSAGE, and GINConv; HyGCN cannot implement GATs. GNNIE achieves an
average speedup of 2.28x over AWB-GCN (which runs only GCNs), despite using
3.4x fewer processing units.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)に基づく解析エンジンは,大規模グラフを用いて関係をモデル化する実世界の多くの問題において不可欠である。
GNNハードウェアプラットフォームの課題は、(a)さまざまなGNNをホストし、(b)入力ノード特徴ベクトルとグラフ隣接行列と付随するランダムメモリアクセスパターンの高間隔を処理し、(c)実際のデータセットにおける高間隔およびパワーロー頂点度分布によって引き起こされる不均一なワークロードに直面してロードバランスな計算を維持することである。
GNNIEは幅広いGNNを実行するために設計されたアクセラレータである。
i)ノード機能のオペランドをブロックに分割すること、(ii)計算の再順序付けと再分配、(iii)処理要素間の通信オーバーヘッドの少ない柔軟なmacアーキテクチャを使用することにより、ワークロードの不均衡に取り組む。
さらに、実際のグラフの特徴によく適合するオフチップメモリ帯域幅を効率的に利用するグラフ分割方式とグラフ固有のキャッシュポリシーを採用している。
ランダムメモリアクセス効果は分割と次数認識キャッシュによって軽減され、高次頂点の再利用を可能にする。
GNNIEは、CPU上で8890x以上、GPU上で295x以上、グラフアテンションネットワーク(GAT)、グラフ畳み込みネットワーク(GCN)、グラフSAGE、GINConv、DiffPool上での平均スピードアップを達成する。
GNNIEは、AWB-GCN(GCNのみで動作する)よりも平均2.28倍のスピードアップを実現している。
関連論文リスト
- Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - Cached Operator Reordering: A Unified View for Fast GNN Training [24.917363701638607]
グラフニューラルネットワーク(GNN)は、構造化グラフデータを扱う強力なツールであり、ノード分類、グラフ分類、クラスタリングといったタスクに対処する。
しかし、GNN計算のスパース性は、従来のディープニューラルネットワークと比較してパフォーマンス最適化に新たな課題をもたらす。
GNN計算,I/O,メモリの統一的なビューを提供することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2023-08-23T12:27:55Z) - Accel-GCN: High-Performance GPU Accelerator Design for Graph Convolution
Networks [12.181052673940465]
グラフ畳み込みネットワーク(GCN)は、様々な領域にわたるグラフデータから潜伏情報を抽出する上で重要である。
本稿では,GCNのためのGPUアクセラレータアーキテクチャであるAccel-GCNを紹介する。
18のベンチマークグラフに対するAccel-GCNの評価では、cuSPARSE、GNNAdvisor、Graph-BLASTをそれぞれ1.17倍、1.86倍、2.94倍で上回っている。
論文 参考訳(メタデータ) (2023-08-22T23:12:17Z) - Accelerating Generic Graph Neural Networks via Architecture, Compiler,
Partition Method Co-Design [15.500725014235412]
グラフニューラルネットワーク(GNN)は,さまざまなグラフ学習領域において,大幅な精度向上を実現している。
GNNモデルのための高性能かつ効率的なハードウェアアクセラレーションを開発することが不可欠である。
設計者は、GNNモデルの高帯域幅要求とGNNモデルの多様性の2つの根本的な課題に直面している。
論文 参考訳(メタデータ) (2023-08-16T07:05:47Z) - GHOST: A Graph Neural Network Accelerator using Silicon Photonics [4.226093500082746]
グラフニューラルネットワーク(GNN)は、グラフ構造化データからモデリングと学習を行うための強力なアプローチとして登場した。
GHOSTは、GNNのための最初のシリコンフォトニックハードウェアアクセラレータである。
論文 参考訳(メタデータ) (2023-07-04T15:37:20Z) - Communication-Efficient Graph Neural Networks with Probabilistic
Neighborhood Expansion Analysis and Caching [59.8522166385372]
大規模グラフ上でのグラフニューラルネットワーク(GNN)のトレーニングと推論は、GNNの登場以来活発に研究されている。
本稿では,分散環境におけるノードワイドサンプリングを用いたGNNによるミニバッチ学習と推論について述べる。
分割された特徴データを扱うために,従来のSALIENTシステムを拡張したSALIENT++を提案する。
論文 参考訳(メタデータ) (2023-05-04T21:04:01Z) - DistGNN: Scalable Distributed Training for Large-Scale Graph Neural
Networks [58.48833325238537]
大規模グラフの構造を学ぶためにGNN(Graph Neural Networks)のフルバッチトレーニングは、実現可能な数百の計算ノードにスケールする必要がある重要な問題です。
本稿では,CPUクラスタ上でのフルバッチトレーニングのためのDGL(Deep Graph Library)を最適化したGNNについて述べる。
4つの一般的なGNNベンチマークデータセットの結果は、1つのCPUソケットを使用して最大3.7倍のスピードアップ、128のCPUソケットを使用して最大97倍のスピードアップを示す。
論文 参考訳(メタデータ) (2021-04-14T08:46:35Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z) - Graph Highway Networks [77.38665506495553]
グラフ畳み込みネットワーク(GCN)は、グラフ表現の有効性と効率性から、グラフ表現の学習に広く利用されている。
彼らは、多くの層が積み重ねられたとき、学習された表現が類似したベクトルに収束するという悪名高い過度に滑らかな問題に悩まされる。
本稿では,GCN学習プロセスにおける均一性と不均一性との間のトレードオフのバランスをとるため,ゲーティングユニットを利用したグラフハイウェイネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-09T16:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。