論文の概要: To Spike or Not to Spike? A Quantitative Comparison of SNN and CNN FPGA
Implementations
- arxiv url: http://arxiv.org/abs/2306.12742v1
- Date: Thu, 22 Jun 2023 08:47:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 15:06:35.249061
- Title: To Spike or Not to Spike? A Quantitative Comparison of SNN and CNN FPGA
Implementations
- Title(参考訳): スパイクするか スパイクしないか?
snnとcnn fpga実装の定量的比較
- Authors: Patrick Plagwitz, Frank Hannig, J\"urgen Teich, Oliver Keszocze
- Abstract要約: Spiking Neural Networks(SNN)は、リソースとエネルギー効率の向上を約束するCNN実装の新たな代替品である。
本稿では,スパイクイベントキューの新しい符号化方式と,SNNエネルギー効率を向上させるための新しいメモリ構成手法を提案する。
MNISTのような小規模のベンチマークでは、SNNの設計は、対応するCNNの実装よりも多少のレイテンシとエネルギー効率の利点を提供する。
- 参考スコア(独自算出の注目度): 0.4405963753136216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional Neural Networks (CNNs) are widely employed to solve various
problems, e.g., image classification. Due to their compute- and data-intensive
nature, CNN accelerators have been developed as ASICs or on FPGAs. Increasing
complexity of applications has caused resource costs and energy requirements of
these accelerators to grow. Spiking Neural Networks (SNNs) are an emerging
alternative to CNN implementations, promising higher resource and energy
efficiency. The main research question addressed in this paper is whether SNN
accelerators truly meet these expectations of reduced energy requirements
compared to their CNN equivalents. For this purpose, we analyze multiple SNN
hardware accelerators for FPGAs regarding performance and energy efficiency. We
present a novel encoding scheme of spike event queues and a novel memory
organization technique to improve SNN energy efficiency further. Both
techniques have been integrated into a state-of-the-art SNN architecture and
evaluated for MNIST, SVHN, and CIFAR-10 datasets and corresponding network
architectures on two differently sized modern FPGA platforms. For small-scale
benchmarks such as MNIST, SNN designs provide rather no or little latency and
energy efficiency advantages over corresponding CNN implementations. For more
complex benchmarks such as SVHN and CIFAR-10, the trend reverses.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は画像分類などの様々な問題を解決するために広く利用されている。
計算とデータ集約性のため、CNNアクセラレータはASICやFPGAとして開発された。
アプリケーションの複雑さが増大すると、これらの加速器の資源コストとエネルギー要求が増大する。
Spiking Neural Networks(SNN)は、リソースとエネルギー効率の向上を約束するCNN実装の新たな代替品である。
本稿では、SNNアクセラレーターが、CNNと同等のエネルギー要求を本当に満たすかどうかについて論じる。
そこで本研究ではfpga用snnハードウェアアクセラレータの性能とエネルギー効率について解析する。
本稿では,スパイクイベントキューの新しい符号化方式と,SNNのエネルギー効率をさらに向上するための新しいメモリ構成手法を提案する。
どちらの手法も最先端のSNNアーキテクチャに統合され、MNIST、SVHN、CIFAR-10データセットと、2つの異なるサイズのモダンFPGAプラットフォーム上の対応するネットワークアーキテクチャで評価されている。
MNISTのような小規模のベンチマークでは、SNNの設計は、対応するCNNの実装よりも多少のレイテンシとエネルギー効率の利点を提供する。
SVHNやCIFAR-10のようなより複雑なベンチマークでは、傾向が逆になる。
関連論文リスト
- LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - Spiker+: a framework for the generation of efficient Spiking Neural
Networks FPGA accelerators for inference at the edge [49.42371633618761]
Spiker+はFPGA上で、エッジでの推論のために効率よく、低消費電力で、低領域でカスタマイズされたSpking Neural Networks(SNN)アクセラレータを生成するためのフレームワークである。
Spiker+ は MNIST と Spiking Heidelberg Digits (SHD) の2つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2024-01-02T10:42:42Z) - SupeRBNN: Randomized Binary Neural Network Using Adiabatic
Superconductor Josephson Devices [44.440915387556544]
AQFPデバイスはバイナリニューラルネットワーク(BNN)計算の優れたキャリアとして機能する。
本稿では,AQFPに基づくランダム化BNNアクセラレーションフレームワークSupeRBNNを提案する。
本稿では,ReRAMベースのBNNフレームワークのエネルギー効率を約7.8×104倍に向上することを示す。
論文 参考訳(メタデータ) (2023-09-21T16:14:42Z) - Are SNNs Truly Energy-efficient? $-$ A Hardware Perspective [7.539212567508529]
スパイキングニューラルネットワーク(SNN)は、そのエネルギー効率のよい機械学習能力に注目を集めている。
本研究では,SATAとSpikeSimという,大規模SNN推論のための2つのハードウェアベンチマークプラットフォームについて検討する。
論文 参考訳(メタデータ) (2023-09-06T22:23:22Z) - SpikeSim: An end-to-end Compute-in-Memory Hardware Evaluation Tool for
Benchmarking Spiking Neural Networks [4.0300632886917]
SpikeSimは、IMCマップされたSNNの現実的なパフォーマンス、エネルギ、レイテンシ、領域評価を実現するツールである。
神経モジュールの面積の1.24倍と10倍に減少するSNNトポロジカルな変化と全エネルギー・遅延生成値を提案する。
論文 参考訳(メタデータ) (2022-10-24T01:07:17Z) - Weightless Neural Networks for Efficient Edge Inference [1.7882696915798877]
ウェイトレスニューラルネットワーク(WNN)は、テーブルルックアップを使用して推論を行う機械学習モデルのクラスである。
本稿では,WNN アーキテクチャ BTHOWeN を提案する。
BTHOWeNは、より優れたレイテンシとエネルギー効率を提供することで、大規模で成長するエッジコンピューティングセクターをターゲットにしている。
論文 参考訳(メタデータ) (2022-03-03T01:46:05Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Can Deep Neural Networks be Converted to Ultra Low-Latency Spiking
Neural Networks? [3.2108350580418166]
スパイクニューラルネットワーク(SNN)は、時間とともに分散されたバイナリスパイクを介して動作する。
SNNのためのSOTAトレーニング戦略は、非スパイキングディープニューラルネットワーク(DNN)からの変換を伴う
そこで本研究では,DNNと変換SNNの誤差を最小限に抑えながら,これらの分布を正確にキャプチャする新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-22T18:47:45Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z) - SHARP: An Adaptable, Energy-Efficient Accelerator for Recurrent Neural
Network [17.928105470385614]
本稿では,RNNの適応性を高めるためのインテリジェントタイル型機構を提案する。
シャープは、異なるRNNモデルとリソース予算を考慮して、平均で2倍、2.8倍、82倍のスピードアップを達成する。
論文 参考訳(メタデータ) (2019-11-04T14:51:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。