論文の概要: GNNHLS: Evaluating Graph Neural Network Inference via High-Level
Synthesis
- arxiv url: http://arxiv.org/abs/2309.16022v1
- Date: Wed, 27 Sep 2023 20:58:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 18:47:00.008484
- Title: GNNHLS: Evaluating Graph Neural Network Inference via High-Level
Synthesis
- Title(参考訳): GNNHLS:高レベル合成によるグラフニューラルネットワーク推論の評価
- Authors: Chenfeng Zhao, Zehao Dong, Yixin Chen, Xuan Zhang, Roger D.
Chamberlain
- Abstract要約: HLSによるFPGA上でのGNN推論高速化を包括的に評価するオープンソースフレームワークであるGNNHLSを提案する。
異なるトポロジとスケールを持つ4つのグラフデータセット上でGNNHLSを評価する。
GNNHLSはCPUベースラインに対して最大50.8倍のスピードアップと423倍のエネルギー削減を実現している。
- 参考スコア(独自算出の注目度): 8.036399595635034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the ever-growing popularity of Graph Neural Networks (GNNs), efficient
GNN inference is gaining tremendous attention. Field-Programming Gate Arrays
(FPGAs) are a promising execution platform due to their fine-grained
parallelism, low-power consumption, reconfigurability, and concurrent
execution. Even better, High-Level Synthesis (HLS) tools bridge the gap between
the non-trivial FPGA development efforts and rapid emergence of new GNN models.
In this paper, we propose GNNHLS, an open-source framework to comprehensively
evaluate GNN inference acceleration on FPGAs via HLS, containing a software
stack for data generation and baseline deployment, and FPGA implementations of
6 well-tuned GNN HLS kernels. We evaluate GNNHLS on 4 graph datasets with
distinct topologies and scales. The results show that GNNHLS achieves up to
50.8x speedup and 423x energy reduction relative to the CPU baselines. Compared
with the GPU baselines, GNNHLS achieves up to 5.16x speedup and 74.5x energy
reduction.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の普及により、効率的なGNN推論が注目されている。
FPGA(Field-Programming Gate Arrays)は,その微細な並列性,低消費電力化,再構成性,並列実行による,有望な実行プラットフォームである。
さらに、高レベル合成(HLS)ツールは、非自明なFPGA開発活動と新しいGNNモデルの急速な台頭の間のギャップを埋める。
本稿では、データ生成とベースライン展開のためのソフトウェアスタックと、6つのよく調整されたGNN HLSカーネルのFPGA実装を含む、HLSを介してFPGA上でのGNN推論アクセラレーションを包括的に評価するオープンソースフレームワークであるGNNHLSを提案する。
異なるトポロジとスケールを持つ4つのグラフデータセット上でGNNHLSを評価する。
その結果, GNNHLSはCPUベースラインに対して最大50.8倍の高速化と423倍のエネルギー削減を実現した。
GPUベースラインと比較して、GNNHLSは最大5.16倍のスピードアップと74.5倍のエネルギー削減を実現している。
関連論文リスト
- Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Low Latency Edge Classification GNN for Particle Trajectory Tracking on
FPGAs [10.146819379097249]
本稿では,低レイテンシ粒子追跡のためのFPGA上での資源効率のよいGNNアーキテクチャを提案する。
Xilinx UltraScale+VU9Pの結果は,CPUとGPUでそれぞれ1625倍,GPUで1574倍の性能向上を示した。
論文 参考訳(メタデータ) (2023-06-20T06:57:24Z) - Graph Ladling: Shockingly Simple Parallel GNN Training without
Intermediate Communication [100.51884192970499]
GNNは、グラフを学習するニューラルネットワークの強力なファミリーである。
GNNのスケーリングは、肥大化または拡大によって、不健康な勾配、過度なスムースメント、情報のスカッシングといった問題に悩まされる。
本稿では,現在のGNNの深層化や拡張ではなく,GNNに適したモデルスープをデータ中心の視点で表現することを提案する。
論文 参考訳(メタデータ) (2023-06-18T03:33:46Z) - DGNN-Booster: A Generic FPGA Accelerator Framework For Dynamic Graph
Neural Network Inference [2.2721856484014373]
実時間DGNN推論のための新しいFPGAアクセラレーションフレームワークであるDGNN-Boosterを提案する。
DGNN-Boosterは、CPUベースライン(6226R)と比較して最大5.6倍、GPUベースライン(A6000)に比べて8.4倍、FPGAベースライン(2.1倍)の高速化を実現する。
論文 参考訳(メタデータ) (2023-04-13T21:50:23Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Hardware/Software Co-Programmable Framework for Computational SSDs to
Accelerate Deep Learning Service on Large-Scale Graphs [8.698995648930806]
グラフニューラルネットワーク(GNN)は、100億のエッジからなる大規模グラフを処理する。
高速でエネルギー効率のよいGNN処理のための,使い易く,ほぼ保存可能な推論基盤を提供する,大規模グラフの新たなディープラーニングフレームワークであるHolisticGNNを提案する。
論文 参考訳(メタデータ) (2022-01-23T06:08:18Z) - GenGNN: A Generic FPGA Framework for Graph Neural Network Acceleration [1.460161657933122]
我々はGenGNNという名前の高レベル合成(HLS)を用いた汎用的なGNN加速フレームワークを提案する。
リアルタイム要求に対するグラフ前処理なしで超高速なGNN推論を実現することを目指している。
我々は,Xilinx Alveo U50 FPGA上での実装を検証するとともに,CPU(6226R)ベースラインに対して最大25倍,GPU(A6000)ベースラインに対して最大13倍のスピードアップを観測する。
論文 参考訳(メタデータ) (2022-01-20T22:30:59Z) - DistGNN: Scalable Distributed Training for Large-Scale Graph Neural
Networks [58.48833325238537]
大規模グラフの構造を学ぶためにGNN(Graph Neural Networks)のフルバッチトレーニングは、実現可能な数百の計算ノードにスケールする必要がある重要な問題です。
本稿では,CPUクラスタ上でのフルバッチトレーニングのためのDGL(Deep Graph Library)を最適化したGNNについて述べる。
4つの一般的なGNNベンチマークデータセットの結果は、1つのCPUソケットを使用して最大3.7倍のスピードアップ、128のCPUソケットを使用して最大97倍のスピードアップを示す。
論文 参考訳(メタデータ) (2021-04-14T08:46:35Z) - BlockGNN: Towards Efficient GNN Acceleration Using Block-Circulant
Weight Matrices [9.406007544032848]
グラフニューラルネットワーク(GNN)は、非ユークリッドグラフデータを分析するための最先端のアルゴリズムです。
リアルタイムにGNNを推論する方法は、リソース制限のあるエッジコンピューティングプラットフォームでは難しい問題となっている。
効率的なGNN加速を実現するソフトウェアハードウェアの共同設計手法であるBlockGNNを提案する。
論文 参考訳(メタデータ) (2021-04-13T14:09:22Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。