論文の概要: DGNN-Booster: A Generic FPGA Accelerator Framework For Dynamic Graph
Neural Network Inference
- arxiv url: http://arxiv.org/abs/2304.06831v1
- Date: Thu, 13 Apr 2023 21:50:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 15:09:46.322827
- Title: DGNN-Booster: A Generic FPGA Accelerator Framework For Dynamic Graph
Neural Network Inference
- Title(参考訳): DGNN-Booster:動的グラフニューラルネットワーク推論のための汎用FPGA加速器フレームワーク
- Authors: Hanqiu Chen and Cong Hao
- Abstract要約: 実時間DGNN推論のための新しいFPGAアクセラレーションフレームワークであるDGNN-Boosterを提案する。
DGNN-Boosterは、CPUベースライン(6226R)と比較して最大5.6倍、GPUベースライン(A6000)に比べて8.4倍、FPGAベースライン(2.1倍)の高速化を実現する。
- 参考スコア(独自算出の注目度): 2.2721856484014373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic Graph Neural Networks (DGNNs) are becoming increasingly popular due
to their effectiveness in analyzing and predicting the evolution of complex
interconnected graph-based systems. However, hardware deployment of DGNNs still
remains a challenge. First, DGNNs do not fully utilize hardware resources
because temporal data dependencies cause low hardware parallelism.
Additionally, there is currently a lack of generic DGNN hardware accelerator
frameworks, and existing GNN accelerator frameworks have limited ability to
handle dynamic graphs with changing topologies and node features. To address
the aforementioned challenges, in this paper, we propose DGNN-Booster, which is
a novel Field-Programmable Gate Array (FPGA) accelerator framework for
real-time DGNN inference using High-Level Synthesis (HLS). It includes two
different FPGA accelerator designs with different dataflows that can support
the most widely used DGNNs. We showcase the effectiveness of our designs by
implementing and evaluating two representative DGNN models on ZCU102 board and
measuring the end-to-end performance. The experiment results demonstrate that
DGNN-Booster can achieve a speedup of up to 5.6x compared to the CPU baseline
(6226R), 8.4x compared to the GPU baseline (A6000) and 2.1x compared to the
FPGA baseline without applying optimizations proposed in this paper. Moreover,
DGNN-Booster can achieve over 100x and over 1000x runtime energy efficiency
than the CPU and GPU baseline respectively. Our implementation code and
on-board measurements are publicly available at
https://github.com/sharc-lab/DGNN-Booster.
- Abstract(参考訳): 動的グラフニューラルネットワーク(DGNN)は、複雑な相互接続グラフベースのシステムの進化を分析し予測する効果により、ますます人気が高まっている。
しかし、DGNNのハードウェア展開は依然として課題である。
まず、DGNNは時間的データ依存がハードウェアの並列性を低下させるため、ハードウェアリソースを十分に利用しない。
さらに、現時点では汎用的なDGNNハードウェアアクセラレータフレームワークが欠如しており、既存のGNNアクセラレータフレームワークはトポロジやノード機能を変更することで、動的グラフを処理する能力に制限がある。
上記の課題に対処するため,本稿では,高レベル合成(HLS)を用いたリアルタイムDGNN推論のための新しいFPGA(Field-Programmable Gate Array)アクセラレータフレームワークであるDGNN-Boosterを提案する。
これには、最も広く使用されているDGNNをサポートする、異なるデータフローを持つ2つのFPGAアクセラレータ設計が含まれている。
本稿では,ZCU102基板上に2つの代表的DGNNモデルを実装,評価し,エンド・ツー・エンドの性能を測定することで,設計の有効性を示す。
実験の結果,DGNN-BoosterはCPUベースライン(6226R)と比較して最大5.6倍,GPUベースライン(A6000)に比べて8.4倍,FPGAベースライン(2.1倍)の高速化を実現することができた。
さらに、dgnn-boosterはcpuとgpuのベースラインよりも100倍、1000倍以上のランタイムエネルギー効率を達成できる。
実装コードとオンボードの測定はhttps://github.com/sharc-lab/DGNN-Booster.comで公開されています。
関連論文リスト
- Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - GNNHLS: Evaluating Graph Neural Network Inference via High-Level
Synthesis [8.036399595635034]
HLSによるFPGA上でのGNN推論高速化を包括的に評価するオープンソースフレームワークであるGNNHLSを提案する。
異なるトポロジとスケールを持つ4つのグラフデータセット上でGNNHLSを評価する。
GNNHLSはCPUベースラインに対して最大50.8倍のスピードアップと423倍のエネルギー削減を実現している。
論文 参考訳(メタデータ) (2023-09-27T20:58:33Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Bottleneck Analysis of Dynamic Graph Neural Network Inference on CPU and
GPU [3.4214598355901638]
動的グラフニューラルネットワーク(DGNN)は、現実世界の動的特徴のキャプチャに広く利用されているため、ますます人気が高まっている。
DGNNをハードウェアにデプロイすることは、モデルの複雑さ、多様性、時間依存性の性質など、さらなる課題を提起する。
我々は、異なる特性を持つ8つの一般的なDGNNを選択し、それらをCPUとGPUの両方でプロファイルする。
論文 参考訳(メタデータ) (2022-10-08T03:41:50Z) - FlowGNN: A Dataflow Architecture for Universal Graph Neural Network
Inference via Multi-Queue Streaming [1.566528527065232]
グラフニューラルネットワーク(GNN)は、グラフ関連の問題に広く適用可能であるため、最近人気が高まっている。
効率的な加速器の開発と新しいGNNモデルの迅速な作成の間にギャップがあるため、新しいGNNモデルの需要と高速推論を同時に行うことは困難である。
本稿では,メッセージパッシングGNNの大部分を柔軟にサポートできるFlowGNNという,GNNアクセラレーションのための汎用データフローアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-27T17:59:25Z) - GenGNN: A Generic FPGA Framework for Graph Neural Network Acceleration [1.460161657933122]
我々はGenGNNという名前の高レベル合成(HLS)を用いた汎用的なGNN加速フレームワークを提案する。
リアルタイム要求に対するグラフ前処理なしで超高速なGNN推論を実現することを目指している。
我々は,Xilinx Alveo U50 FPGA上での実装を検証するとともに,CPU(6226R)ベースラインに対して最大25倍,GPU(A6000)ベースラインに対して最大13倍のスピードアップを観測する。
論文 参考訳(メタデータ) (2022-01-20T22:30:59Z) - BlockGNN: Towards Efficient GNN Acceleration Using Block-Circulant
Weight Matrices [9.406007544032848]
グラフニューラルネットワーク(GNN)は、非ユークリッドグラフデータを分析するための最先端のアルゴリズムです。
リアルタイムにGNNを推論する方法は、リソース制限のあるエッジコンピューティングプラットフォームでは難しい問題となっている。
効率的なGNN加速を実現するソフトウェアハードウェアの共同設計手法であるBlockGNNを提案する。
論文 参考訳(メタデータ) (2021-04-13T14:09:22Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。