論文の概要: FPGA-optimized Hardware acceleration for Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2201.06993v1
- Date: Tue, 18 Jan 2022 13:59:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 17:56:27.371705
- Title: FPGA-optimized Hardware acceleration for Spiking Neural Networks
- Title(参考訳): スパイキングニューラルネットワークのためのFPGA最適化ハードウェアアクセラレーション
- Authors: Alessio Carpegna, Alessandro Savino, Stefano Di Carlo
- Abstract要約: 本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
- 参考スコア(独自算出の注目度): 69.49429223251178
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Artificial intelligence (AI) is gaining success and importance in many
different tasks. The growing pervasiveness and complexity of AI systems push
researchers towards developing dedicated hardware accelerators. Spiking Neural
Networks (SNN) represent a promising solution in this sense since they
implement models that are more suitable for a reliable hardware design.
Moreover, from a neuroscience perspective, they better emulate a human brain.
This work presents the development of a hardware accelerator for an SNN, with
off-line training, applied to an image recognition task, using the MNIST as the
target dataset. Many techniques are used to minimize the area and to maximize
the performance, such as the replacement of the multiplication operation with
simple bit shifts and the minimization of the time spent on inactive spikes,
useless for the update of neurons' internal state. The design targets a Xilinx
Artix-7 FPGA, using in total around the 40% of the available hardware resources
and reducing the classification time by three orders of magnitude, with a small
4.5% impact on the accuracy, if compared to its software, full precision
counterpart.
- Abstract(参考訳): 人工知能(AI)は多くの異なるタスクで成功し、重要になっている。
aiシステムの広がりと複雑さは、研究者に専用のハードウェアアクセラレータの開発を促している。
スパイキングニューラルネットワーク(SNN)は、信頼性の高いハードウェア設計に適したモデルを実装するため、この意味で有望なソリューションである。
さらに、神経科学の観点からは、人間の脳をよりエミュレートする。
本研究は、MNISTをターゲットデータセットとして、画像認識タスクに適用したオフライントレーニングを備えたSNN用ハードウェアアクセラレータの開発を提案する。
領域の最小化や、単純なビットシフトによる乗算演算の置き換え、不活性スパイクに費やされた時間の最小化など、ニューロンの内部状態の更新には役に立たないようなパフォーマンスの最大化に多くの技術が用いられている。
この設計は Xilinx Artix-7 FPGA をターゲットにしており、利用可能なハードウェアリソースの40% を総じて使用し、分類時間を3桁程度削減している。
関連論文リスト
- Spyx: A Library for Just-In-Time Compiled Optimization of Spiking Neural
Networks [0.08965418284317034]
Spiking Neural Networks(SNN)は、小さくて低消費電力なハードウェアフットプリントによるエネルギー効率の向上を提供する。
本稿では、JAXで設計された新しい軽量SNNシミュレーションおよび最適化ライブラリSpyxを紹介する。
論文 参考訳(メタデータ) (2024-02-29T09:46:44Z) - Dynamic Early Exiting Predictive Coding Neural Networks [3.542013483233133]
より小型で正確なデバイスを求めると、Deep Learningモデルはデプロイするには重すぎる。
予測符号化理論と動的早期退避に基づく浅層双方向ネットワークを提案する。
我々は,CIFAR-10上の画像分類におけるVGG-16と同等の精度を,より少ないパラメータと少ない計算量で達成した。
論文 参考訳(メタデータ) (2023-09-05T08:00:01Z) - Fast GraspNeXt: A Fast Self-Attention Neural Network Architecture for
Multi-task Learning in Computer Vision Tasks for Robotic Grasping on the Edge [80.88063189896718]
アーキテクチャと計算の複雑さが高いと、組み込みデバイスへのデプロイに適さない。
Fast GraspNeXtは、ロボットグルーピングのためのコンピュータビジョンタスクに埋め込まれたマルチタスク学習に適した、高速な自己認識型ニューラルネットワークアーキテクチャである。
論文 参考訳(メタデータ) (2023-04-21T18:07:14Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - E3NE: An End-to-End Framework for Accelerating Spiking Neural Networks
with Emerging Neural Encoding on FPGAs [6.047137174639418]
エンドツーエンドフレームワークのE3NEはFPGAのための効率的なSNN推論ロジックを生成する。
E3NEはハードウェアリソースの50%未満を消費し、20%の電力を消費する一方で、レイテンシを桁違いに低減する。
論文 参考訳(メタデータ) (2021-11-19T04:01:19Z) - Resistive Neural Hardware Accelerators [0.46198289193451136]
ReRAMベースのインメモリコンピューティングは、領域と電力効率のよい推論の実装において大きな可能性を秘めている。
ReRAMベースのインメモリコンピューティングへの移行は、領域と電力効率のよい推論の実装において大きな可能性を秘めている。
本稿では,最先端のReRAMベースディープニューラルネットワーク(DNN)多コアアクセラレータについて概説する。
論文 参考訳(メタデータ) (2021-09-08T21:11:48Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Learning on Hardware: A Tutorial on Neural Network Accelerators and
Co-Processors [0.0]
ディープニューラルネットワーク(dnn)は、複雑なタスクを解決可能にするために、多くのパラメータを考慮に入れることができるという利点がある。
コンピュータビジョンや音声認識では、一般的なアルゴリズムよりも精度が高く、タスクによっては人間の専門家よりも精度が高いものもあります。
近年のDNNの進展に伴い、疾患の診断や自動運転など、多くの応用分野が活用されています。
論文 参考訳(メタデータ) (2021-04-19T12:50:27Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。