論文の概要: A Reconfigurable Stream-Based FPGA Accelerator for Bayesian Confidence Propagation Neural Networks
- arxiv url: http://arxiv.org/abs/2503.01561v1
- Date: Mon, 03 Mar 2025 14:06:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:20:51.721263
- Title: A Reconfigurable Stream-Based FPGA Accelerator for Bayesian Confidence Propagation Neural Networks
- Title(参考訳): ベイジアン信頼度伝播ニューラルネットワークのための再構成可能なストリームベースFPGA加速器
- Authors: Muhammad Ihsan Al Hafiz, Naresh Ravichandran, Anders Lansner, Pawel Herman, Artur Podobas,
- Abstract要約: 脳にインスパイアされたアルゴリズムは、古典的なディープラーニング手法に代わる魅力的な、新たな選択肢だ。
BCPNNは、機械学習と計算神経科学研究の両方にとって重要なツールである。
BCPNNは、他のモデルと比較して学習やメモリリコールといったタスクで最先端のパフォーマンスに達することができる。
我々は、Xilinx Vitis High-Level Synthesis (HLS) フローを用いたFPGA(Field-Programmable Gate Array)を用いて、BCPNN用のカスタムストリームベースのアクセラレータを設計する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Brain-inspired algorithms are attractive and emerging alternatives to classical deep learning methods for use in various machine learning applications. Brain-inspired systems can feature local learning rules, both unsupervised/semi-supervised learning and different types of plasticity (structural/synaptic), allowing them to potentially be faster and more energy-efficient than traditional machine learning alternatives. Among the more salient brain-inspired algorithms are Bayesian Confidence Propagation Neural Networks (BCPNNs). BCPNN is an important tool for both machine learning and computational neuroscience research, and recent work shows that BCPNN can reach state-of-the-art performance in tasks such as learning and memory recall compared to other models. Unfortunately, BCPNN is primarily executed on slow general-purpose processors (CPUs) or power-hungry graphics processing units (GPUs), reducing the applicability of using BCPNN in (among others) Edge systems. In this work, we design a custom stream-based accelerator for BCPNN using Field-Programmable Gate Arrays (FPGA) using Xilinx Vitis High-Level Synthesis (HLS) flow. Furthermore, we model our accelerator's performance using first principles, and we empirically show that our proposed accelerator is between 1.3x - 5.3x faster than an Nvidia A100 GPU while at the same time consuming between 2.62x - 3.19x less power and 5.8x - 16.5x less energy without any degradation in performance.
- Abstract(参考訳): 脳にインスパイアされたアルゴリズムは、さまざまな機械学習アプリケーションで使用される古典的なディープラーニング手法に代わる、魅力的で新たな選択肢である。
脳にインスパイアされたシステムは、教師なし/半教師付き学習と異なる種類の可塑性(構造的/シナプス的)の両方で局所的な学習ルールを特徴付けることができる。
より健全な脳にインスパイアされたアルゴリズムには、ベイジアン信頼伝播ニューラルネットワーク(BCPNN)がある。
BCPNNは、機械学習と計算神経科学研究の両方にとって重要なツールであり、最近の研究は、BCPNNが他のモデルと比較して学習やメモリリコールといったタスクにおいて最先端のパフォーマンスに達することを示している。
残念なことに、BCPNNは主に遅い汎用プロセッサ(CPU)やパワーハングリーグラフィックス処理ユニット(GPU)で実行されており、エッジシステムでBCPNNを使用することの適用性が低下している。
本研究では,Xilinx Vitis High-Level Synthesis (HLS) フローを用いたFPGA(Field-Programmable Gate Arrays)を用いて,BCPNN用の独自のストリームベースアクセラレータを設計する。
さらに、第1原理を用いて加速器の性能をモデル化し、提案した加速器がNvidia A100 GPUより1.3倍から5.3倍速く、同時に2.62倍から3.19倍の電力と5.8倍から16.5倍のエネルギーを消費していることを実証的に示す。
関連論文リスト
- Hardware-Software Co-optimised Fast and Accurate Deep Reconfigurable Spiking Inference Accelerator Architecture Design Methodology [2.968768532937366]
Spiking Neural Networks(SNN)は、機械学習モデルのエネルギー効率を改善するための有望なアプローチとして登場した。
我々は,ソフトウェア学習深層ニューラルネットワーク(DNN)を高精度スパイキングモデルに移植するハードウェア・ソフトウェア共同最適化戦略を開発した。
論文 参考訳(メタデータ) (2024-10-07T05:04:13Z) - Reconfigurable Distributed FPGA Cluster Design for Deep Learning
Accelerators [59.11160990637615]
エッジコンピューティングアプリケーション用に設計された低消費電力組み込みFPGAに基づく分散システムを提案する。
提案システムは,様々なニューラルネットワーク(NN)モデルを同時に実行し,パイプライン構造にグラフを配置し,NNグラフの最も計算集約的な層により大きなリソースを手動で割り当てる。
論文 参考訳(メタデータ) (2023-05-24T16:08:55Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - FPGA-based AI Smart NICs for Scalable Distributed AI Training Systems [62.20308752994373]
我々は、フィールドプログラマブルゲートアレイ(FPGA)を用いた分散AI訓練システムのための新しいスマートネットワークインタフェースカード(NIC)を提案する。
提案するFPGAベースのAIスマートNICは,従来のNICを用いたベースラインシステムと比較して,6ノードで1.6倍,32ノードで2.5倍の性能向上が期待できる。
論文 参考訳(メタデータ) (2022-04-22T21:57:00Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - E3NE: An End-to-End Framework for Accelerating Spiking Neural Networks
with Emerging Neural Encoding on FPGAs [6.047137174639418]
エンドツーエンドフレームワークのE3NEはFPGAのための効率的なSNN推論ロジックを生成する。
E3NEはハードウェアリソースの50%未満を消費し、20%の電力を消費する一方で、レイテンシを桁違いに低減する。
論文 参考訳(メタデータ) (2021-11-19T04:01:19Z) - H2Learn: High-Efficiency Learning Accelerator for High-Accuracy Spiking
Neural Networks [25.768116231283045]
H2Learnは,BPTTに基づくSNN学習において,高い効率を実現する新しいアーキテクチャである。
最新のNVIDIA V100 GPUと比較して、H2Learnは7.38倍の領域節約、5.74-10.20倍のスピードアップ、5.25-7.12倍の省エネを実現している。
論文 参考訳(メタデータ) (2021-07-25T07:37:17Z) - StreamBrain: An HPC Framework for Brain-like Neural Networks on CPUs,
GPUs and FPGAs [0.0]
StreamBrainは、BCPNNに基づくニューラルネットワークを、高性能コンピューティングシステムに実践的にデプロイすることを可能にするフレームワークである。
StreamBrainがよく知られたMLベンチマークデータセットMNISTを数秒でトレーニングできることを実証的に実証した。
我々は,STL-10 サイズネットワーク上で BCPNN を初めて実演した。
論文 参考訳(メタデータ) (2021-06-09T20:28:18Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - Fully-parallel Convolutional Neural Network Hardware [0.7829352305480285]
本稿では,ハードウェアにArticial Neural Networks(ANN)を実装するための,新しい電力・面積効率アーキテクチャを提案する。
LENET-5として完全に並列なCNNを1つのFPGAに埋め込んでテストするのが初めてである。
論文 参考訳(メタデータ) (2020-06-22T17:19:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。