論文の概要: DeepFire2: A Convolutional Spiking Neural Network Accelerator on FPGAs
- arxiv url: http://arxiv.org/abs/2305.05187v1
- Date: Tue, 9 May 2023 05:46:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 13:46:21.511597
- Title: DeepFire2: A Convolutional Spiking Neural Network Accelerator on FPGAs
- Title(参考訳): DeepFire2:FPGA上の畳み込みニューラルネットワーク加速器
- Authors: Myat Thu Linn Aung, Daniel Gerlinghoff, Chuping Qu, Liwei Yang, Tian
Huang, Rick Siow Mong Goh, Tao Luo, Weng-Fai Wong
- Abstract要約: 脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、統合と発射のニューロンによる従来のニューラルネットワークの多重蓄積操作を置き換える。
DeepFire2は、マルチディーFPGA内の複数のスーパーロジック領域にわたって、大きなネットワーク層を効率的にマッピングできるハードウェアアーキテクチャを導入している。
- 参考スコア(独自算出の注目度): 8.275598040331227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Brain-inspired spiking neural networks (SNNs) replace the multiply-accumulate
operations of traditional neural networks by integrate-and-fire neurons, with
the goal of achieving greater energy efficiency. Specialized hardware
implementations of those neurons clearly have advantages over general-purpose
devices in terms of power and performance, but exhibit poor scalability when it
comes to accelerating large neural networks. DeepFire2 introduces a hardware
architecture which can map large network layers efficiently across multiple
super logic regions in a multi-die FPGA. That gives more control over resource
allocation and parallelism, benefiting both throughput and energy consumption.
Avoiding the use of lookup tables to implement the AND operations of an SNN,
prevents the layer size to be limited by logic resources. A deep pipeline does
not only lead to an increased clock speed of up to 600 MHz. We double the
throughput and power efficiency compared to our previous version of DeepFire,
which equates to an almost 10-fold improvement over other previous
implementations. Importantly, we are able to deploy a large ImageNet model,
while maintaining a throughput of over 1500 frames per second.
- Abstract(参考訳): 脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、統合と発火のニューロンによる従来のニューラルネットワークの乗算蓄積操作を置き換える。
これらのニューロンの特殊なハードウェア実装は、電力と性能の点で汎用デバイスよりも明らかに優れているが、大規模なニューラルネットワークを加速する場合、スケーラビリティに乏しい。
DeepFire2では,大規模ネットワーク層を複数のスーパーロジック領域に効率的にマッピングするハードウェアアーキテクチャを導入している。
これにより、リソースの割り当てと並列性がより制御され、スループットとエネルギー消費の両方の恩恵を受ける。
SNNの AND 操作を実装するためのルックアップテーブルの使用を避けることで、ロジックリソースによってレイヤサイズが制限されるのを防ぐことができる。
ディープパイプラインは、クロック速度を最大600MHzまで向上させるだけではない。
私たちは、以前のバージョンのDeepFireと比べてスループットと電力効率を2倍にしています。
重要なことは、毎秒1500フレーム以上のスループットを維持しながら、大きなImageNetモデルをデプロイできることです。
関連論文リスト
- Spiker+: a framework for the generation of efficient Spiking Neural
Networks FPGA accelerators for inference at the edge [49.42371633618761]
Spiker+はFPGA上で、エッジでの推論のために効率よく、低消費電力で、低領域でカスタマイズされたSpking Neural Networks(SNN)アクセラレータを生成するためのフレームワークである。
Spiker+ は MNIST と Spiking Heidelberg Digits (SHD) の2つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2024-01-02T10:42:42Z) - FireFly v2: Advancing Hardware Support for High-Performance Spiking
Neural Network with a Spatiotemporal FPGA Accelerator [8.0611988136866]
Spiking Neural Networks(SNN)は、Artificial Neural Networks(ANN)の代替として期待されている。
特殊なSNNハードウェアは、電力と性能の点で汎用デバイスよりも明確な優位性を提供する。
FPGA SNNアクセラレータであるFireFly v2は、現在のSOTA SNNアルゴリズムにおける非スパイク操作の問題に対処することができる。
論文 参考訳(メタデータ) (2023-09-28T04:17:02Z) - FireFly: A High-Throughput Hardware Accelerator for Spiking Neural
Networks with Efficient DSP and Memory Optimization [6.966706170499345]
スパイキングニューラルネットワーク(SNN)は、強い生物学的解釈性と高エネルギー効率のために広く利用されている。
フィールドプログラマブルゲートアレイ(FPGA)のためのほとんどのSNNハードウェア実装は、演算やメモリ効率の要求を満たすことができない。
発火ニューロンから発生するスパイクをオンザフライ(FireFly)で処理できるFPGAアクセラレータを提案する。
論文 参考訳(メタデータ) (2023-01-05T04:28:07Z) - Adaptable Butterfly Accelerator for Attention-based NNs via Hardware and
Algorithm Co-design [66.39546326221176]
多くのAIタスクにおいて、注意に基づくニューラルネットワークが普及している。
注意機構とフィードフォワードネットワーク(FFN)の使用は、過剰な計算とメモリ資源を必要とする。
本稿では,注目機構とFFNの両方を近似するために,バタフライの分散パターンを統一したハードウェアフレンドリーな変種を提案する。
論文 参考訳(メタデータ) (2022-09-20T09:28:26Z) - A Resource-efficient Spiking Neural Network Accelerator Supporting
Emerging Neural Encoding [6.047137174639418]
スパイキングニューラルネットワーク(SNN)は、その低消費電力乗算自由コンピューティングにより、最近勢いを増している。
SNNは、大規模なモデルのための人工知能ニューラルネットワーク(ANN)と同様の精度に達するために、非常に長いスパイク列車(1000台まで)を必要とする。
ニューラルエンコーディングでSNNを効率的にサポートできる新しいハードウェアアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-06T10:56:25Z) - Efficient Hardware Acceleration of Sparsely Active Convolutional Spiking
Neural Networks [0.0]
スパイキングニューラルネットワーク(SNN)は、標準のニューラルネットワークよりも効率的な計算を実現するために、イベントベースで計算する。
本稿では,高いアクティベーション間隔を有する畳み込みSNNの処理に最適化された新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-03-23T14:18:58Z) - Two Sparsities Are Better Than One: Unlocking the Performance Benefits
of Sparse-Sparse Networks [0.0]
本稿では,既存のハードウェア上での二重スパースネットワークの性能を大幅に向上させる手法であるComplementary Sparsityを紹介する。
FPGAのスループットとエネルギー効率を最大100倍向上させる。
我々の結果は、重量とアクティベーションの間隔が将来のAIモデルを効率的にスケーリングするための強力な組み合わせになり得ることを示唆している。
論文 参考訳(メタデータ) (2021-12-27T20:41:01Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - AdderNet and its Minimalist Hardware Design for Energy-Efficient
Artificial Intelligence [111.09105910265154]
アドラー畳み込みニューラルネットワーク(AdderNet)を用いた新しいミニマリストハードウェアアーキテクチャを提案する。
AdderNet全体の16%の高速化を実現している。
我々は、AdderNetが他の競争相手を追い越せると結論付けている。
論文 参考訳(メタデータ) (2021-01-25T11:31:52Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - ShiftAddNet: A Hardware-Inspired Deep Network [87.18216601210763]
ShiftAddNetはエネルギー効率のよい乗算レスディープニューラルネットワークである。
エネルギー効率のよい推論とトレーニングの両方につながるが、表現能力は損なわれない。
ShiftAddNetは、DNNのトレーニングと推論において、80%以上のハードウェア量子化されたエネルギーコストを積極的に削減し、同等またはより良い精度を提供する。
論文 参考訳(メタデータ) (2020-10-24T05:09:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。