論文の概要: FlowGNN: A Dataflow Architecture for Universal Graph Neural Network
Inference via Multi-Queue Streaming
- arxiv url: http://arxiv.org/abs/2204.13103v1
- Date: Wed, 27 Apr 2022 17:59:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 14:49:36.983848
- Title: FlowGNN: A Dataflow Architecture for Universal Graph Neural Network
Inference via Multi-Queue Streaming
- Title(参考訳): FlowGNN:マルチキューストリーミングによるユニバーサルグラフニューラルネットワーク推論のためのデータフローアーキテクチャ
- Authors: Rishov Sarkar, Stefan Abi-Karam, Yuqi He, Lakshmi Sathidevi, Cong Hao
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ関連の問題に広く適用可能であるため、最近人気が高まっている。
効率的な加速器の開発と新しいGNNモデルの迅速な作成の間にギャップがあるため、新しいGNNモデルの需要と高速推論を同時に行うことは困難である。
本稿では,メッセージパッシングGNNの大部分を柔軟にサポートできるFlowGNNという,GNNアクセラレーションのための汎用データフローアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 1.566528527065232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have recently exploded in popularity thanks to
their broad applicability to graph-related problems such as quantum chemistry,
drug discovery, and high energy physics. However, meeting demand for novel GNN
models and fast inference simultaneously is challenging because of the gap
between developing efficient accelerators and the rapid creation of new GNN
models. Prior art focuses on the acceleration of specific classes of GNNs, such
as Graph Convolutional Network (GCN), but lacks the generality to support a
wide range of existing or new GNN models. Meanwhile, most work rely on graph
pre-processing to exploit data locality, making them unsuitable for real-time
applications. To address these limitations, in this work, we propose a generic
dataflow architecture for GNN acceleration, named FlowGNN, which can flexibly
support the majority of message-passing GNNs. The contributions are three-fold.
First, we propose a novel and scalable dataflow architecture, which flexibly
supports a wide range of GNN models with message-passing mechanism. The
architecture features a configurable dataflow optimized for simultaneous
computation of node embedding, edge embedding, and message passing, which is
generally applicable to all models. We also propose a rich library of
model-specific components. Second, we deliver ultra-fast real-time GNN
inference without any graph pre-processing, making it agnostic to dynamically
changing graph structures. Third, we verify our architecture on the Xilinx
Alveo U50 FPGA board and measure the on-board end-to-end performance. We
achieve a speed-up of up to 51-254x against CPU (6226R) and 1.3-477x against
GPU (A6000) (with batch sizes 1 through 1024); we also outperform the SOTA GNN
accelerator I-GCN by 1.03x and 1.25x across two datasets. Our implementation
code and on-board measurement are publicly available on GitHub.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、量子化学、薬物発見、高エネルギー物理学などのグラフ関連問題に広く適用可能であるため、最近人気が高まっている。
しかし、効率的な加速器の開発と新しいGNNモデルの迅速な作成との間にギャップがあるため、新しいGNNモデルの需要と高速推論を同時に行うことは困難である。
従来の技術は、グラフ畳み込みネットワーク(GCN)など、GNNの特定のクラスのアクセラレーションに重点を置いていたが、既存のGNNモデルや新しいGNNモデルをサポートする汎用性に欠けていた。
一方、ほとんどの作業はデータローカリティを活用するためにグラフ前処理に依存しており、リアルタイムアプリケーションには適さない。
本稿では,GNNアクセラレーションのための汎用データフローアーキテクチャであるFlowGNNを提案する。
コントリビューションは3倍です。
まず,メッセージパッシング機構を備えた幅広いgnnモデルを柔軟にサポートする,新しいスケーラブルなデータフローアーキテクチャを提案する。
このアーキテクチャは、ノード埋め込み、エッジ埋め込み、メッセージパッシングの同時計算に最適化された構成可能なデータフローを特徴としている。
また,モデル固有のコンポーネントの豊富なライブラリを提案する。
第2に、グラフ前処理なしで超高速なリアルタイムGNN推論を提供することにより、グラフ構造を動的に変化させることができない。
第3に、Xilinx Alveo U50 FPGAボード上でのアーキテクチャを検証するとともに、オンボードのエンドツーエンド性能を測定する。
我々は、CPU(6226R)に対して51-254x、GPU(A6000)に対して1.3-477x(バッチサイズ1から1024)の高速化を実現し、2つのデータセットでSOTA GNNアクセラレータI-GCNを1.03x、1.25xで上回った。
実装コードとオンボード計測はgithubで公開されている。
関連論文リスト
- Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - Accelerating Generic Graph Neural Networks via Architecture, Compiler,
Partition Method Co-Design [15.500725014235412]
グラフニューラルネットワーク(GNN)は,さまざまなグラフ学習領域において,大幅な精度向上を実現している。
GNNモデルのための高性能かつ効率的なハードウェアアクセラレーションを開発することが不可欠である。
設計者は、GNNモデルの高帯域幅要求とGNNモデルの多様性の2つの根本的な課題に直面している。
論文 参考訳(メタデータ) (2023-08-16T07:05:47Z) - DGNN-Booster: A Generic FPGA Accelerator Framework For Dynamic Graph
Neural Network Inference [2.2721856484014373]
実時間DGNN推論のための新しいFPGAアクセラレーションフレームワークであるDGNN-Boosterを提案する。
DGNN-Boosterは、CPUベースライン(6226R)と比較して最大5.6倍、GPUベースライン(A6000)に比べて8.4倍、FPGAベースライン(2.1倍)の高速化を実現する。
論文 参考訳(メタデータ) (2023-04-13T21:50:23Z) - LazyGNN: Large-Scale Graph Neural Networks via Lazy Propagation [51.552170474958736]
グラフ表現学習においてより効率的なモデルであるLazyGNNを実現するために,より深いモデルではなく,より浅いモデルによってグラフの長距離依存性をキャプチャすることを提案する。
LazyGNNは、ミニバッチのLazyGNNの開発を通じてさらに加速するために、既存のスケーラブルなアプローチ(サンプリング方法など)と互換性がある。
総合的な実験は、大規模なベンチマークで優れた予測性能とスケーラビリティを示す。
論文 参考訳(メタデータ) (2023-02-03T02:33:07Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Hardware/Software Co-Programmable Framework for Computational SSDs to
Accelerate Deep Learning Service on Large-Scale Graphs [8.698995648930806]
グラフニューラルネットワーク(GNN)は、100億のエッジからなる大規模グラフを処理する。
高速でエネルギー効率のよいGNN処理のための,使い易く,ほぼ保存可能な推論基盤を提供する,大規模グラフの新たなディープラーニングフレームワークであるHolisticGNNを提案する。
論文 参考訳(メタデータ) (2022-01-23T06:08:18Z) - GenGNN: A Generic FPGA Framework for Graph Neural Network Acceleration [1.460161657933122]
我々はGenGNNという名前の高レベル合成(HLS)を用いた汎用的なGNN加速フレームワークを提案する。
リアルタイム要求に対するグラフ前処理なしで超高速なGNN推論を実現することを目指している。
我々は,Xilinx Alveo U50 FPGA上での実装を検証するとともに,CPU(6226R)ベースラインに対して最大25倍,GPU(A6000)ベースラインに対して最大13倍のスピードアップを観測する。
論文 参考訳(メタデータ) (2022-01-20T22:30:59Z) - GNNIE: GNN Inference Engine with Load-balancing and Graph-Specific
Caching [2.654276707313136]
GNNIEは、幅広いグラフニューラルネットワーク(GNN)を実行するために設計されたアクセラレータである。
i)ノード特徴オペランドをブロックに分割し、 (ii) 再注文と再配布を行い、 (iii) 処理要素間の通信オーバーヘッドの少ない柔軟なMACアーキテクチャを使用する。
GNNIEは、CPU上の8890倍、グラフアテンションネットワーク(GAT)、グラフ畳み込みネットワーク(GCN)、GraphSAGE、GINConv、DiffPool上の複数のデータセット上のGPU上の295倍の平均スピードアップを達成する。
論文 参考訳(メタデータ) (2021-05-21T20:07:14Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。