論文の概要: E3NE: An End-to-End Framework for Accelerating Spiking Neural Networks
with Emerging Neural Encoding on FPGAs
- arxiv url: http://arxiv.org/abs/2111.10027v1
- Date: Fri, 19 Nov 2021 04:01:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 12:18:48.704002
- Title: E3NE: An End-to-End Framework for Accelerating Spiking Neural Networks
with Emerging Neural Encoding on FPGAs
- Title(参考訳): e3ne:fpga上で新たなニューラルエンコーディングによりスパイクニューラルネットワークを加速するエンドツーエンドフレームワーク
- Authors: Daniel Gerlinghoff, Zhehui Wang, Xiaozhe Gu, Rick Siow Mong Goh, Tao
Luo
- Abstract要約: エンドツーエンドフレームワークのE3NEはFPGAのための効率的なSNN推論ロジックを生成する。
E3NEはハードウェアリソースの50%未満を消費し、20%の電力を消費する一方で、レイテンシを桁違いに低減する。
- 参考スコア(独自算出の注目度): 6.047137174639418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compiler frameworks are crucial for the widespread use of FPGA-based deep
learning accelerators. They allow researchers and developers, who are not
familiar with hardware engineering, to harness the performance attained by
domain-specific logic. There exists a variety of frameworks for conventional
artificial neural networks. However, not much research effort has been put into
the creation of frameworks optimized for spiking neural networks (SNNs). This
new generation of neural networks becomes increasingly interesting for the
deployment of AI on edge devices, which have tight power and resource
constraints. Our end-to-end framework E3NE automates the generation of
efficient SNN inference logic for FPGAs. Based on a PyTorch model and user
parameters, it applies various optimizations and assesses trade-offs inherent
to spike-based accelerators. Multiple levels of parallelism and the use of an
emerging neural encoding scheme result in an efficiency superior to previous
SNN hardware implementations. For a similar model, E3NE uses less than 50% of
hardware resources and 20% less power, while reducing the latency by an order
of magnitude. Furthermore, scalability and generality allowed the deployment of
the large-scale SNN models AlexNet and VGG.
- Abstract(参考訳): FPGAベースのディープラーニングアクセラレータの普及には,コンパイラフレームワークが不可欠だ。
ハードウェアエンジニアリングに詳しい研究者や開発者は、ドメイン固有のロジックによって達成されたパフォーマンスを活用することができる。
従来の人工ニューラルネットワークには様々なフレームワークがある。
しかしながら、スパイクニューラルネットワーク(snn)に最適化されたフレームワークの作成には、あまり研究が行われていない。
新たな世代のニューラルネットワークは、強大なパワーとリソース制約を持つエッジデバイスにAIを配置する上で、ますます興味深いものになりつつある。
我々のエンドツーエンドフレームワークであるE3NEはFPGAのための効率的なSNN推論ロジックを自動生成する。
PyTorchモデルとユーザパラメータに基づいて、様々な最適化を適用し、スパイクベースのアクセラレータ固有のトレードオフを評価する。
並列性の複数のレベルと新たなニューラルエンコーディングスキームの使用により、従来のSNNハードウェア実装よりも効率が優れている。
同様のモデルでは、E3NEはハードウェアリソースの50%未満と20%未満の電力を使用し、レイテンシを桁違いに低減する。
さらにスケーラビリティと汎用性により、大規模なSNNモデルのAlexNetとVGGのデプロイが可能になった。
関連論文リスト
- RNC: Efficient RRAM-aware NAS and Compilation for DNNs on Resource-Constrained Edge Devices [0.30458577208819987]
我々は抵抗性ランダムアクセスメモリ(RRAM)に基づく加速器のためのエッジフレンドリーなディープニューラルネットワーク(DNN)の開発を目指している。
本稿では,特定のハードウェア制約を満たす最適化ニューラルネットワークを探索するための,エッジコンパイルとリソース制約付きRRAM対応ニューラルネットワーク探索(NAS)フレームワークを提案する。
NASが速度に最適化した結果のモデルは5x-30倍のスピードアップを達成した。
論文 参考訳(メタデータ) (2024-09-27T15:35:36Z) - Spyx: A Library for Just-In-Time Compiled Optimization of Spiking Neural
Networks [0.08965418284317034]
Spiking Neural Networks(SNN)は、小さくて低消費電力なハードウェアフットプリントによるエネルギー効率の向上を提供する。
本稿では、JAXで設計された新しい軽量SNNシミュレーションおよび最適化ライブラリSpyxを紹介する。
論文 参考訳(メタデータ) (2024-02-29T09:46:44Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - A Resource-efficient Spiking Neural Network Accelerator Supporting
Emerging Neural Encoding [6.047137174639418]
スパイキングニューラルネットワーク(SNN)は、その低消費電力乗算自由コンピューティングにより、最近勢いを増している。
SNNは、大規模なモデルのための人工知能ニューラルネットワーク(ANN)と同様の精度に達するために、非常に長いスパイク列車(1000台まで)を必要とする。
ニューラルエンコーディングでSNNを効率的にサポートできる新しいハードウェアアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-06T10:56:25Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Learning on Hardware: A Tutorial on Neural Network Accelerators and
Co-Processors [0.0]
ディープニューラルネットワーク(dnn)は、複雑なタスクを解決可能にするために、多くのパラメータを考慮に入れることができるという利点がある。
コンピュータビジョンや音声認識では、一般的なアルゴリズムよりも精度が高く、タスクによっては人間の専門家よりも精度が高いものもあります。
近年のDNNの進展に伴い、疾患の診断や自動運転など、多くの応用分野が活用されています。
論文 参考訳(メタデータ) (2021-04-19T12:50:27Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。