論文の概要: HePGA: A Heterogeneous Processing-in-Memory based GNN Training Accelerator
- arxiv url: http://arxiv.org/abs/2508.16011v1
- Date: Fri, 22 Aug 2025 00:06:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.208428
- Title: HePGA: A Heterogeneous Processing-in-Memory based GNN Training Accelerator
- Title(参考訳): HePGA: メモリ内不均一処理に基づくGNNトレーニングアクセラレータ
- Authors: Chukwufumnanya Ogbogu, Gaurav Narang, Biresh Kumar Joardar, Janardhan Rao Doppa, Krishnendu Chakrabarty, Partha Pratim Pande,
- Abstract要約: HePGAと呼ばれるグラフニューラルネットワーク(GNN)トレーニングのための3次元不均一PIMベースのアクセラレータを提案する。
HePGAは既存のPIMアーキテクチャを最大3.8倍および6.8倍のエネルギー効率(TOPS/W)と計算効率(TOPS/mm2)で上回っている。
- 参考スコア(独自算出の注目度): 12.78659296903101
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Processing-In-Memory (PIM) architectures offer a promising approach to accelerate Graph Neural Network (GNN) training and inference. However, various PIM devices such as ReRAM, FeFET, PCM, MRAM, and SRAM exist, with each device offering unique trade-offs in terms of power, latency, area, and non-idealities. A heterogeneous manycore architecture enabled by 3D integration can combine multiple PIM devices on a single platform, to enable energy-efficient and high-performance GNN training. In this work, we propose a 3D heterogeneous PIM-based accelerator for GNN training referred to as HePGA. We leverage the unique characteristics of GNN layers and associated computing kernels to optimize their mapping on to different PIM devices as well as planar tiers. Our experimental analysis shows that HePGA outperforms existing PIM-based architectures by up to 3.8x and 6.8x in energy-efficiency (TOPS/W) and compute efficiency (TOPS/mm2) respectively, without sacrificing the GNN prediction accuracy. Finally, we demonstrate the applicability of HePGA to accelerate inferencing of emerging transformer models.
- Abstract(参考訳): Processing-In-Memory(PIM)アーキテクチャは、グラフニューラルネットワーク(GNN)のトレーニングと推論を加速するための有望なアプローチを提供する。
しかし、ReRAM、FeFET、PCM、MRAM、SRAMなどの様々なPIMデバイスがあり、各デバイスは電力、レイテンシ、面積、非イデオロギーの点で独自のトレードオフを提供している。
3D統合によって実現される異質なマルチコアアーキテクチャは、複数のPIMデバイスを単一のプラットフォーム上で組み合わせることで、エネルギー効率と高性能なGNNトレーニングを可能にする。
本研究では,HPGAと呼ばれるGNNトレーニングのための3次元不均一PIMベースのアクセラレータを提案する。
我々は、異なるPIMデバイスと平面層へのマッピングを最適化するために、GNN層と関連する計算カーネルのユニークな特性を活用している。
GNN予測精度を犠牲にすることなく,エネルギー効率(TOPS/W)と計算効率(TOPS/mm2)で既存のPIMアーキテクチャを最大3.8倍,6.8倍向上させることを示す。
最後に,新しいトランスモデルの推論を高速化するためのHePGAの適用性を示す。
関連論文リスト
- Efficient Edge AI: Deploying Convolutional Neural Networks on FPGA with the Gemmini Accelerator [0.5714074111744111]
我々は、Gemminiアクセラレーターを用いて、FPGA(Field Programmable Gate Arrays)上にCNNを配置するためのエンドツーエンドワークフローを提示する。
Xilinx ZCU102 FPGA 上で YOLOv7 モデルを36.5 GOP/s/W のエネルギー効率で実装することにより,リアルタイムな性能を実現することができた。
論文 参考訳(メタデータ) (2024-08-14T09:24:00Z) - EPIM: Efficient Processing-In-Memory Accelerators based on Epitome [78.79382890789607]
畳み込みのような機能を提供する軽量神経オペレータであるEpitomeを紹介する。
ソフトウェア側では,PIMアクセラレータ上でのエピトームのレイテンシとエネルギを評価する。
ハードウェア効率を向上させるため,PIM対応層設計手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T17:56:39Z) - NicePIM: Design Space Exploration for Processing-In-Memory DNN
Accelerators with 3D-Stacked-DRAM [10.802292525404994]
NicePIMはDRAM-PIMシステムのハードウェア構成を効率的に最適化できる。
レイテンシとエネルギーコストを平均で37%と28%削減した高品質なDNNマッピングスキームを生成することができる。
論文 参考訳(メタデータ) (2023-05-30T13:58:13Z) - HARFLOW3D: A Latency-Oriented 3D-CNN Accelerator Toolflow for HAR on
FPGA Devices [71.45672882756001]
本研究では,3次元畳み込みニューラルネットワークをFPGAにマッピングするための,新しいストリーミングアーキテクチャベースのツールフローを提案する。
HARFLOW3Dツールフローは、ONNXフォーマットで3D CNNを入力し、FPGAの特性を記述する。
ツールフローが幅広いモデルやデバイスをサポートする能力は、様々な3D CNNとFPGAシステムペアに関する数多くの実験を通して示される。
論文 参考訳(メタデータ) (2023-03-30T08:25:27Z) - Optimization of FPGA-based CNN Accelerators Using Metaheuristics [1.854931308524932]
畳み込みニューラルネットワーク(CNN)は、多くの分野における問題解決能力を実証している。
FPGAはCNN推論を加速する関心が高まっている。
FPGAベースのCNNアクセラレータの現在のトレンドは、複数の畳み込み層プロセッサ(CLP)を実装することである。
論文 参考訳(メタデータ) (2022-09-22T18:57:49Z) - Accelerating Neural Network Inference with Processing-in-DRAM: From the
Edge to the Cloud [9.927754948343326]
ニューラルネットワークの性能(およびエネルギー効率)は、計算またはメモリリソースによって拘束できる。
PIM(Processing-in-Memory)パラダイムは、メモリバウンドNNを高速化する実行可能なソリューションである。
NN性能とエネルギー効率向上のための3つの最先端PIMアーキテクチャを解析する。
論文 参考訳(メタデータ) (2022-09-19T11:46:05Z) - HALF: Holistic Auto Machine Learning for FPGAs [1.9146960682777232]
ディープニューラルネットワーク(DNN)は、画像や自然言語処理などの組み込みシステムに関連する領域において、複雑な問題を解決することができる。
特定のFPGAプラットフォームにDNNを効率よく実装するためには、例えばエネルギー効率など、膨大な設計パラメータを考慮する必要がある。
FPGA上でのDNN実装の質は, 自動的, 全体的設計手法により大幅に向上する。
論文 参考訳(メタデータ) (2021-06-28T14:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。