論文の概要: GNNBuilder: An Automated Framework for Generic Graph Neural Network
Accelerator Generation, Simulation, and Optimization
- arxiv url: http://arxiv.org/abs/2303.16459v2
- Date: Tue, 8 Aug 2023 01:06:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 17:13:02.627204
- Title: GNNBuilder: An Automated Framework for Generic Graph Neural Network
Accelerator Generation, Simulation, and Optimization
- Title(参考訳): gnnbuilder - 汎用グラフニューラルネットワークアクセラレーション生成,シミュレーション,最適化のための自動化フレームワーク
- Authors: Stefan Abi-Karam, Cong Hao
- Abstract要約: GNNBuilderは、最初の自動化、汎用、エンドツーエンドのGNNアクセラレータ生成フレームワークである。
1) GNNBuilderは、ユーザが任意に定義した幅広いGNNモデルのGNNアクセラレータを自動生成し、(2) GNNBuilderは標準のPyTorchプログラミングインターフェースを採用し、アルゴリズム開発者のオーバーヘッドをゼロにする、(3) GNNBuilderは、エンドツーエンドのコード生成、シミュレーション、アクセラレータ最適化、ハードウェアデプロイメントをサポートする、(4) GNNBuilderは、生成されたアクセラレータの正確なパフォーマンスモデルを備えている。
- 参考スコア(独自算出の注目度): 2.2721856484014373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are plenty of graph neural network (GNN) accelerators being proposed.
However, they highly rely on users' hardware expertise and are usually
optimized for one specific GNN model, making them challenging for practical
use. Therefore, in this work, we propose GNNBuilder, the first automated,
generic, end-to-end GNN accelerator generation framework. It features four
advantages: (1) GNNBuilder can automatically generate GNN accelerators for a
wide range of GNN models arbitrarily defined by users; (2) GNNBuilder takes
standard PyTorch programming interface, introducing zero overhead for algorithm
developers; (3) GNNBuilder supports end-to-end code generation, simulation,
accelerator optimization, and hardware deployment, realizing a push-button
fashion for GNN accelerator design; (4) GNNBuilder is equipped with accurate
performance models of its generated accelerator, enabling fast and flexible
design space exploration (DSE). In the experiments, first, we show that our
accelerator performance model has errors within $36\%$ for latency prediction
and $18\%$ for BRAM count prediction. Second, we show that our generated
accelerators can outperform CPU by $6.33\times$ and GPU by $6.87\times$. This
framework is open-source, and the code is available at
https://github.com/sharc-lab/gnn-builder.
- Abstract(参考訳): たくさんのグラフニューラルネットワーク(gnn)加速器が提案されている。
しかし、それらはユーザーのハードウェアの専門知識に強く依存しており、通常は特定のGNNモデルに最適化されているため、実用上は困難である。
そこで、本研究では、gnnbuilder を提案する。これは、最初の自動化された、汎用的な、エンドツーエンドのgnnアクセラレーター生成フレームワークである。
It features four advantages: (1) GNNBuilder can automatically generate GNN accelerators for a wide range of GNN models arbitrarily defined by users; (2) GNNBuilder takes standard PyTorch programming interface, introducing zero overhead for algorithm developers; (3) GNNBuilder supports end-to-end code generation, simulation, accelerator optimization, and hardware deployment, realizing a push-button fashion for GNN accelerator design; (4) GNNBuilder is equipped with accurate performance models of its generated accelerator, enabling fast and flexible design space exploration (DSE).
実験では、まず、我々のアクセラレータ性能モデルがレイテンシ予測で36セント、BRAMカウント予測で18セントの誤差を持つことを示した。
次に、生成したアクセラレーターはCPUを6.33\times$、GPUを6.87\times$で上回ります。
このフレームワークはオープンソースであり、コードはhttps://github.com/sharc-lab/gnn-builderで入手できる。
関連論文リスト
- Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - DGNN-Booster: A Generic FPGA Accelerator Framework For Dynamic Graph
Neural Network Inference [2.2721856484014373]
実時間DGNN推論のための新しいFPGAアクセラレーションフレームワークであるDGNN-Boosterを提案する。
DGNN-Boosterは、CPUベースライン(6226R)と比較して最大5.6倍、GPUベースライン(A6000)に比べて8.4倍、FPGAベースライン(2.1倍)の高速化を実現する。
論文 参考訳(メタデータ) (2023-04-13T21:50:23Z) - Distributed Graph Neural Network Training: A Survey [51.77035975191926]
グラフニューラルネットワーク(GNN)は、グラフに基づいてトレーニングされたディープラーニングモデルの一種で、さまざまな領域にうまく適用されている。
GNNの有効性にもかかわらず、GNNが大規模グラフに効率的にスケールすることは依然として困難である。
治療法として、分散コンピューティングは大規模GNNをトレーニングするための有望なソリューションとなる。
論文 参考訳(メタデータ) (2022-11-01T01:57:00Z) - FlowGNN: A Dataflow Architecture for Universal Graph Neural Network
Inference via Multi-Queue Streaming [1.566528527065232]
グラフニューラルネットワーク(GNN)は、グラフ関連の問題に広く適用可能であるため、最近人気が高まっている。
効率的な加速器の開発と新しいGNNモデルの迅速な作成の間にギャップがあるため、新しいGNNモデルの需要と高速推論を同時に行うことは困難である。
本稿では,メッセージパッシングGNNの大部分を柔軟にサポートできるFlowGNNという,GNNアクセラレーションのための汎用データフローアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-27T17:59:25Z) - GenGNN: A Generic FPGA Framework for Graph Neural Network Acceleration [1.460161657933122]
我々はGenGNNという名前の高レベル合成(HLS)を用いた汎用的なGNN加速フレームワークを提案する。
リアルタイム要求に対するグラフ前処理なしで超高速なGNN推論を実現することを目指している。
我々は,Xilinx Alveo U50 FPGA上での実装を検証するとともに,CPU(6226R)ベースラインに対して最大25倍,GPU(A6000)ベースラインに対して最大13倍のスピードアップを観測する。
論文 参考訳(メタデータ) (2022-01-20T22:30:59Z) - TC-GNN: Bridging Sparse GNN Computation and Dense Tensor Cores on GPUs [21.63854538768414]
我々はGPUコアユニット(TCU)をベースとした最初のGNNフレームワークであるTC-GNNを提案する。
中心となるアイデアは、"スパース"GNNを高性能な"デンス"TCUと整合させることである。
厳密な実験は、最先端のDGLフレームワーク上で平均1.70のスピードアップを示している。
論文 参考訳(メタデータ) (2021-12-03T18:06:23Z) - BlockGNN: Towards Efficient GNN Acceleration Using Block-Circulant
Weight Matrices [9.406007544032848]
グラフニューラルネットワーク(GNN)は、非ユークリッドグラフデータを分析するための最先端のアルゴリズムです。
リアルタイムにGNNを推論する方法は、リソース制限のあるエッジコンピューティングプラットフォームでは難しい問題となっている。
効率的なGNN加速を実現するソフトウェアハードウェアの共同設計手法であるBlockGNNを提案する。
論文 参考訳(メタデータ) (2021-04-13T14:09:22Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。