論文の概要: Exploiting On-chip Heterogeneity of Versal Architecture for GNN
Inference Acceleration
- arxiv url: http://arxiv.org/abs/2308.02749v1
- Date: Fri, 4 Aug 2023 23:57:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 18:58:50.626123
- Title: Exploiting On-chip Heterogeneity of Versal Architecture for GNN
Inference Acceleration
- Title(参考訳): GNN推論高速化のためのバーサルアーキテクチャのオンチップ不均一性の爆発
- Authors: Paul Chen, Pavan Manjunath, Sasindu Wijeratne, Bingyi Zhang, Viktor
Prasanna
- Abstract要約: グラフニューラルネットワーク(GNN)は、ソーシャルネットワーク分析やバイオインフォマティクスなど、多くの機械学習(ML)アプリケーションに革命をもたらした。
我々は,AMD Versal ACAPアーキテクチャの不均一な計算能力を活用し,GNN推論を高速化する。
グラフ畳み込みネットワーク(GCN)では,同一のACAPデバイス上でのみPLを用いた設計と比較して3.9-96.7倍の高速化を実現している。
- 参考スコア(独自算出の注目度): 0.5249805590164902
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have revolutionized many Machine Learning (ML)
applications, such as social network analysis, bioinformatics, etc. GNN
inference can be accelerated by exploiting data sparsity in the input graph,
vertex features, and intermediate data in GNN computations. For dynamic
sparsity exploitation, we leverage the heterogeneous computing capabilities of
AMD Versal ACAP architecture to accelerate GNN inference. We develop a custom
hardware module that executes the sparse primitives of the computation kernel
on the Programmable Logic (PL) and efficiently computes the dense primitives
using the AI Engine (AIE). To exploit data sparsity during inference, we devise
a runtime kernel mapping strategy that dynamically assigns computation tasks to
the PL and AIE based on data sparsity. Our implementation on the VCK5000 ACAP
platform leads to superior performance compared with the state-of-the-art
implementations on CPU, GPU, ACAP, and other custom GNN accelerators. Compared
with these implementations, we achieve significant average runtime speedup
across various models and datasets of 162.42x, 17.01x, 9.90x, and 27.23x,
respectively. Furthermore, for Graph Convolutional Network (GCN) inference, our
approach leads to a speedup of 3.9-96.7x compared to designs using PL only on
the same ACAP device.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ソーシャルネットワーク分析やバイオインフォマティクスなど、多くの機械学習(ML)アプリケーションに革命をもたらした。
GNNの推論は,GNN計算における入力グラフ,頂点特徴,中間データなどを用いて高速化することができる。
動的スパルシリティ活用のために,我々は,amd versal acapアーキテクチャのヘテロジニアスコンピューティング機能を活用し,gnn推論を高速化する。
本稿では,計算カーネルのスパースプリミティブをProgrammable Logic (PL)上で実行し,AIエンジン (AIE) を用いて高密度プリミティブを効率的に計算するハードウェアモジュールを開発する。
そこで本研究では,データ間隔に基づいて計算タスクをPLとAIEに動的に割り当てるランタイムカーネルマッピング戦略を考案した。
当社のVCK5000 ACAPプラットフォーム実装は,CPU,GPU,ACAP,その他のカスタムGNNアクセラレータの最先端実装と比較して,優れたパフォーマンスを実現しています。
これらの実装と比較して、それぞれ162.42x、17.01x、9.90x、27.23xの様々なモデルとデータセットの平均実行速度が大幅に向上した。
さらに、グラフ畳み込みネットワーク(gcn)推論では、同一のacapデバイスでのみplを使用する設計と比較して、3.9-96.7倍の高速化を実現している。
関連論文リスト
- FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Enabling Accelerators for Graph Computing [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学ぶための新しいパラダイムを提供する。
GNNは従来のニューラルネットワークと比較して新しい計算課題を提示している。
この論文は、GNNが基盤となるハードウェアとどのように相互作用するかをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2023-12-16T23:31:20Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - FPGA-based AI Smart NICs for Scalable Distributed AI Training Systems [62.20308752994373]
我々は、フィールドプログラマブルゲートアレイ(FPGA)を用いた分散AI訓練システムのための新しいスマートネットワークインタフェースカード(NIC)を提案する。
提案するFPGAベースのAIスマートNICは,従来のNICを用いたベースラインシステムと比較して,6ノードで1.6倍,32ノードで2.5倍の性能向上が期待できる。
論文 参考訳(メタデータ) (2022-04-22T21:57:00Z) - Hardware/Software Co-Programmable Framework for Computational SSDs to
Accelerate Deep Learning Service on Large-Scale Graphs [8.698995648930806]
グラフニューラルネットワーク(GNN)は、100億のエッジからなる大規模グラフを処理する。
高速でエネルギー効率のよいGNN処理のための,使い易く,ほぼ保存可能な推論基盤を提供する,大規模グラフの新たなディープラーニングフレームワークであるHolisticGNNを提案する。
論文 参考訳(メタデータ) (2022-01-23T06:08:18Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Fully-parallel Convolutional Neural Network Hardware [0.7829352305480285]
本稿では,ハードウェアにArticial Neural Networks(ANN)を実装するための,新しい電力・面積効率アーキテクチャを提案する。
LENET-5として完全に並列なCNNを1つのFPGAに埋め込んでテストするのが初めてである。
論文 参考訳(メタデータ) (2020-06-22T17:19:09Z) - Compiling Spiking Neural Networks to Neuromorphic Hardware [4.273223677453178]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上で実行される機械学習アプリケーションのエネルギー消費を減少させる。
本稿では,資源制約のあるニューロモルフィックハードウェア上でSNNを分析し,コンパイルする手法を提案する。
論文 参考訳(メタデータ) (2020-04-07T21:13:27Z) - GraphACT: Accelerating GCN Training on CPU-FPGA Heterogeneous Platforms [1.2183405753834562]
グラフ畳み込みネットワーク(GCN)は、グラフ上での表現学習のための最先端のディープラーニングモデルとして登場した。
実質的かつ不規則なデータ通信のため、GCNの訓練を加速することは困難である。
我々はCPU-FPGAヘテロジニアスシステム上でGCNをトレーニングするための新しいアクセラレータを設計する。
論文 参考訳(メタデータ) (2019-12-31T21:19:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。