論文の概要: AMPLE: Event-Driven Accelerator for Mixed-Precision Inference of Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2502.21196v1
- Date: Fri, 28 Feb 2025 16:14:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:42:55.957861
- Title: AMPLE: Event-Driven Accelerator for Mixed-Precision Inference of Graph Neural Networks
- Title(参考訳): AMPLE:グラフニューラルネットワークの混合精度推論のためのイベント駆動加速器
- Authors: Pedro Gimenes, Yiren Zhao, George Constantinides,
- Abstract要約: グラフニューラルネットワーク(GNN)は、非ユークリッドデータのパフォーマンスのために最近注目を集めている。
我々は,新しいイベント駆動プログラミングフローを活用するFPGAアクセラレータである textbfAMPLE (Accelerated Message Passing Logic Engine) を紹介する。
我々はGNN推論をノードレベルの粒度で定量化できる混合パラメータアーキテクチャを開発した。
- 参考スコア(独自算出の注目度): 6.4509395505998235
- License:
- Abstract: Graph Neural Networks (GNNs) have recently gained attention due to their performance on non-Euclidean data. The use of custom hardware architectures proves particularly beneficial for GNNs due to their irregular memory access patterns, resulting from the sparse structure of graphs. However, existing FPGA accelerators are limited by their double buffering mechanism, which doesn't account for the irregular node distribution in typical graph datasets. To address this, we introduce \textbf{AMPLE} (Accelerated Message Passing Logic Engine), an FPGA accelerator leveraging a new event-driven programming flow. We develop a mixed-arithmetic architecture, enabling GNN inference to be quantized at a node-level granularity. Finally, prefetcher for data and instructions is implemented to optimize off-chip memory access and maximize node parallelism. Evaluation on citation and social media graph datasets ranging from $2$K to $700$K nodes showed a mean speedup of $243\times$ and $7.2\times$ against CPU and GPU counterparts, respectively.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、非ユークリッドデータのパフォーマンスのために最近注目を集めている。
カスタムハードウェアアーキテクチャの使用は、グラフのスパース構造に起因する不規則なメモリアクセスパターンのため、GNNにとって特に有益である。
しかし、既存のFPGAアクセラレータは、典型的なグラフデータセットにおける不規則なノード分布を考慮しない二重バッファリング機構によって制限されている。
これを解決するために,新しいイベント駆動型プログラミングフローを活用するFPGAアクセラレータである \textbf{AMPLE} (Accelerated Message Passing Logic Engine) を紹介する。
我々はGNN推論をノードレベルの粒度で定量化できる混合パラメータアーキテクチャを開発した。
最後に、オフチップメモリアクセスを最適化し、ノードの並列性を最大化するために、データと命令のプリフェッチャーが実装されている。
引用とソーシャルメディアグラフのデータセットの評価は、それぞれ243\times$と7.2\times$の243\times$とGPUに対する平均的なスピードアップを示している。
関連論文リスト
- OMEGA: A Low-Latency GNN Serving System for Large Graphs [8.51634655687174]
グラフニューラルネットワーク(GNN)は、グラフデータセットにおける表現ノード表現の計算能力に広く採用されている。
既存のトレーニングにおける近似技術はオーバーヘッドを軽減することができるが、サービスでは高いレイテンシと/または精度の損失につながる。
本稿では,低遅延GNNを最小限の精度でグラフに役立てるシステムであるOMEGAを提案する。
論文 参考訳(メタデータ) (2025-01-15T03:14:18Z) - Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - An FPGA-Based Accelerator for Graph Embedding using Sequential Training Algorithm [0.8403582577557918]
デプロイ後のグラフ構造の変化を処理するために,オンラインシーケンシャルトレーニングアルゴリズムと node2vec を組み合わせることを提案する。
提案されたFPGA実装は、ARM Cortex-A53 CPUのオリジナルのモデルと比較して最大205.25倍の高速化を実現している。
論文 参考訳(メタデータ) (2023-12-23T02:24:59Z) - FlowGNN: A Dataflow Architecture for Universal Graph Neural Network
Inference via Multi-Queue Streaming [1.566528527065232]
グラフニューラルネットワーク(GNN)は、グラフ関連の問題に広く適用可能であるため、最近人気が高まっている。
効率的な加速器の開発と新しいGNNモデルの迅速な作成の間にギャップがあるため、新しいGNNモデルの需要と高速推論を同時に行うことは困難である。
本稿では,メッセージパッシングGNNの大部分を柔軟にサポートできるFlowGNNという,GNNアクセラレーションのための汎用データフローアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-27T17:59:25Z) - GNNAutoScale: Scalable and Expressive Graph Neural Networks via
Historical Embeddings [51.82434518719011]
GNNAutoScale(GAS)は、任意のメッセージパスGNNを大規模グラフにスケールするためのフレームワークである。
ガスは、前回のトレーニングの繰り返しから過去の埋め込みを利用して計算グラフのサブツリー全体を掘り起こします。
ガスは大規模グラフ上で最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-06-10T09:26:56Z) - GNNIE: GNN Inference Engine with Load-balancing and Graph-Specific
Caching [2.654276707313136]
GNNIEは、幅広いグラフニューラルネットワーク(GNN)を実行するために設計されたアクセラレータである。
i)ノード特徴オペランドをブロックに分割し、 (ii) 再注文と再配布を行い、 (iii) 処理要素間の通信オーバーヘッドの少ない柔軟なMACアーキテクチャを使用する。
GNNIEは、CPU上の8890倍、グラフアテンションネットワーク(GAT)、グラフ畳み込みネットワーク(GCN)、GraphSAGE、GINConv、DiffPool上の複数のデータセット上のGPU上の295倍の平均スピードアップを達成する。
論文 参考訳(メタデータ) (2021-05-21T20:07:14Z) - DistGNN: Scalable Distributed Training for Large-Scale Graph Neural
Networks [58.48833325238537]
大規模グラフの構造を学ぶためにGNN(Graph Neural Networks)のフルバッチトレーニングは、実現可能な数百の計算ノードにスケールする必要がある重要な問題です。
本稿では,CPUクラスタ上でのフルバッチトレーニングのためのDGL(Deep Graph Library)を最適化したGNNについて述べる。
4つの一般的なGNNベンチマークデータセットの結果は、1つのCPUソケットを使用して最大3.7倍のスピードアップ、128のCPUソケットを使用して最大97倍のスピードアップを示す。
論文 参考訳(メタデータ) (2021-04-14T08:46:35Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Bi-GCN: Binary Graph Convolutional Network [57.733849700089955]
ネットワークパラメータと入力ノードの特徴を二項化するバイナリグラフ畳み込みネットワーク(Bi-GCN)を提案する。
我々のBi-GCNは、ネットワークパラメータと入力データの両方で平均30倍のメモリ消費を削減でき、推論速度を平均47倍に加速できる。
論文 参考訳(メタデータ) (2020-10-15T07:26:23Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。