論文の概要: Embedded FPGA Acceleration of Brain-Like Neural Networks: Online Learning to Scalable Inference
- arxiv url: http://arxiv.org/abs/2506.18530v1
- Date: Mon, 23 Jun 2025 11:35:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.958084
- Title: Embedded FPGA Acceleration of Brain-Like Neural Networks: Online Learning to Scalable Inference
- Title(参考訳): 脳様ニューラルネットワークの組み込みFPGA高速化:オンライン学習からスケーラブル推論
- Authors: Muhammad Ihsan Al Hafiz, Naresh Ravichandran, Anders Lansner, Pawel Herman, Artur Podobas,
- Abstract要約: 高レベル合成を用いた Zynq UltraScale+ システム上で,BCPNN 用の最初の FPGA アクセラレータを提案する。
私たちのアクセラレータは、ARMベースライン上で最大17.5倍のレイテンシと94%の省エネを実現しています。
この作業により、エッジデバイス上での実用的なニューロモーフィックコンピューティングが可能になり、脳に似た学習と現実世界のデプロイメントのギャップを埋める。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Edge AI applications increasingly require models that can learn and adapt on-device with minimal energy budget. Traditional deep learning models, while powerful, are often overparameterized, energy-hungry, and dependent on cloud connectivity. Brain-Like Neural Networks (BLNNs), such as the Bayesian Confidence Propagation Neural Network (BCPNN), propose a neuromorphic alternative by mimicking cortical architecture and biologically-constrained learning. They offer sparse architectures with local learning rules and unsupervised/semi-supervised learning, making them well-suited for low-power edge intelligence. However, existing BCPNN implementations rely on GPUs or datacenter FPGAs, limiting their applicability to embedded systems. This work presents the first embedded FPGA accelerator for BCPNN on a Zynq UltraScale+ SoC using High-Level Synthesis. We implement both online learning and inference-only kernels with support for variable and mixed precision. Evaluated on MNIST, Pneumonia, and Breast Cancer datasets, our accelerator achieves up to 17.5x latency and 94% energy savings over ARM baselines, without sacrificing accuracy. This work enables practical neuromorphic computing on edge devices, bridging the gap between brain-like learning and real-world deployment.
- Abstract(参考訳): エッジAIアプリケーションは、最小限のエネルギー予算でデバイス上で学習し、適応できるモデルをますます必要とします。
従来のディープラーニングモデルは、強力だが、しばしば過度にパラメータ化され、エネルギー不足であり、クラウド接続に依存している。
Brain-like Neural Networks (BLNNs) は、BCPNN (Bayes Confidence Propagation Neural Network) のような、皮質アーキテクチャと生物学的に制約された学習を模倣して、ニューロモルフィックな選択肢を提案する。
ローカルな学習ルールと教師なし/半教師なしの学習を備えたスパースアーキテクチャを提供し、低消費電力エッジインテリジェンスに適している。
しかし、既存のBCPNNの実装はGPUやデータセンターFPGAに依存しており、組み込みシステムに適用性を制限する。
本研究は,高レベル合成を用いたZynq UltraScale+ SoC上にBCPNN用の組み込みFPGAアクセラレータを初めて提示する。
オンライン学習と推論専用カーネルの両方を実装し、可変と混合の精度をサポートしています。
MNIST、肺炎、乳癌のデータセットに基づいて評価し、我々のアクセラレーターは、精度を犠牲にすることなく、ARMベースライン上で最大17.5倍のレイテンシと94%の省エネを達成する。
この作業により、エッジデバイス上での実用的なニューロモーフィックコンピューティングが可能になり、脳に似た学習と現実世界のデプロイメントのギャップを埋める。
関連論文リスト
- NeuroCoreX: An Open-Source FPGA-Based Spiking Neural Network Emulator with On-Chip Learning [0.0]
スパイキングニューラルネットワーク(スパイキングニューラルネットワーク、英: Spiking Neural Networks、SNN)は、生体神経ネットワークの構造と力学にインスパイアされた計算モデルである。
NeuroCoreXは、SNNの柔軟な共同設計とテストのために設計されたFPGAベースのエミュレータである。
論文 参考訳(メタデータ) (2025-06-17T03:02:04Z) - A Reconfigurable Stream-Based FPGA Accelerator for Bayesian Confidence Propagation Neural Networks [0.0]
脳にインスパイアされたアルゴリズムは、古典的なディープラーニング手法に代わる魅力的な、新たな選択肢だ。
BCPNNは、機械学習と計算神経科学研究の両方にとって重要なツールである。
BCPNNは、他のモデルと比較して学習やメモリリコールといったタスクで最先端のパフォーマンスに達することができる。
我々は、Xilinx Vitis High-Level Synthesis (HLS) フローを用いたFPGA(Field-Programmable Gate Array)を用いて、BCPNN用のカスタムストリームベースのアクセラレータを設計する。
論文 参考訳(メタデータ) (2025-03-03T14:06:43Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - Exploiting FPGA Capabilities for Accelerated Biomedical Computing [0.0]
本研究では、フィールドプログラマブルゲートアレイ(FPGA)を用いたECG信号解析のための高度なニューラルネットワークアーキテクチャを提案する。
我々は、トレーニングと検証にMIT-BIH Arrhythmia Databaseを使用し、堅牢性を改善するためにガウスノイズを導入した。
この研究は最終的に、様々なアプリケーションのためのFPGA上でのニューラルネットワーク性能を最適化するためのガイドを提供する。
論文 参考訳(メタデータ) (2023-07-16T01:20:17Z) - ETLP: Event-based Three-factor Local Plasticity for online learning with
neuromorphic hardware [105.54048699217668]
イベントベース3要素局所塑性(ETLP)の計算複雑性に明らかな優位性を有する精度の競争性能を示す。
また, 局所的可塑性を用いた場合, スパイキングニューロンの閾値適応, 繰り返しトポロジーは, 時間的構造が豊富な時間的パターンを学習するために必要であることを示した。
論文 参考訳(メタデータ) (2023-01-19T19:45:42Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - E3NE: An End-to-End Framework for Accelerating Spiking Neural Networks
with Emerging Neural Encoding on FPGAs [6.047137174639418]
エンドツーエンドフレームワークのE3NEはFPGAのための効率的なSNN推論ロジックを生成する。
E3NEはハードウェアリソースの50%未満を消費し、20%の電力を消費する一方で、レイテンシを桁違いに低減する。
論文 参考訳(メタデータ) (2021-11-19T04:01:19Z) - In-Hardware Learning of Multilayer Spiking Neural Networks on a
Neuromorphic Processor [6.816315761266531]
この研究は、生物学的に妥当な局所更新規則を持つスパイクベースのバックプロパゲーションアルゴリズムを示し、ニューロモルフィックハードウェアの制約に適合するように適応する。
このアルゴリズムはIntel Loihiチップ上に実装されており、モバイルアプリケーション用の多層SNNの低消費電力ハードウェアによるオンライン学習を可能にする。
論文 参考訳(メタデータ) (2021-05-08T09:22:21Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。