論文の概要: OpenSpike: An OpenRAM SNN Accelerator
- arxiv url: http://arxiv.org/abs/2302.01015v1
- Date: Thu, 2 Feb 2023 11:06:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 14:20:04.881005
- Title: OpenSpike: An OpenRAM SNN Accelerator
- Title(参考訳): OpenSpike: OpenRAM SNNアクセラレータ
- Authors: Farhad Modaresi, Matthew Guthaus, Jason K. Eshraghian
- Abstract要約: 本稿では,完全オープンソースEDAツールを用いたスパイキングニューラルネットワーク(SNN)アクセラレータを提案する。
チップは130nmのSkyWaterプロセスで取り出され、100万以上のシナプス重みを統合している。
加速器のスループットは毎秒48,262イメージで、壁時計時間は20.72時間、56.8GOPS/Wである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a spiking neural network (SNN) accelerator made using
fully open-source EDA tools, process design kit (PDK), and memory macros
synthesized using OpenRAM. The chip is taped out in the 130 nm SkyWater process
and integrates over 1 million synaptic weights, and offers a reprogrammable
architecture. It operates at a clock speed of 40 MHz, a supply of 1.8 V, uses a
PicoRV32 core for control, and occupies an area of 33.3 mm^2. The throughput of
the accelerator is 48,262 images per second with a wallclock time of 20.72 us,
at 56.8 GOPS/W. The spiking neurons use hysteresis to provide an adaptive
threshold (i.e., a Schmitt trigger) which can reduce state instability. This
results in high performing SNNs across a range of benchmarks that remain
competitive with state-of-the-art, full precision SNNs. The design is open
sourced and available online: https://github.com/sfmth/OpenSpike
- Abstract(参考訳): 本稿では,完全にオープンソースなEDAツール,プロセス設計キット(PDK),OpenRAMを用いたメモリマクロを用いたスパイキングニューラルネットワーク(SNN)アクセラレータを提案する。
チップは130nmのSkyWaterプロセスで取り出され、100万以上のシナプス重みを統合し、再プログラム可能なアーキテクチャを提供する。
クロック速度は40MHz、供給は1.8V、制御にはPicoRV32コアを使用し、面積は33.3mm^2である。
加速器のスループットは毎秒48,262画像で、ウォールクロック時間20.72 us、56.8 gops/wである。
スパイクニューロンはヒステリシスを用いて、状態不安定を減少させる適応しきい値(すなわちシュミットトリガー)を提供する。
これにより、最先端のフル精度のSNNと競合する、さまざまなベンチマークで高性能なSNNが実現される。
設計はオープンソースで、オンラインで公開されている。
関連論文リスト
- Spiker+: a framework for the generation of efficient Spiking Neural
Networks FPGA accelerators for inference at the edge [49.42371633618761]
Spiker+はFPGA上で、エッジでの推論のために効率よく、低消費電力で、低領域でカスタマイズされたSpking Neural Networks(SNN)アクセラレータを生成するためのフレームワークである。
Spiker+ は MNIST と Spiking Heidelberg Digits (SHD) の2つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2024-01-02T10:42:42Z) - Darwin3: A large-scale neuromorphic chip with a Novel ISA and On-Chip
Learning [19.4694809389434]
本稿では,新しい命令セットアーキテクチャを備えた大規模ニューロモルフィックチップDarwin3を提案する。
ダーウィン3チップは最大235万個のニューロンをサポートしており、ニューロンの規模では最大である。
論文 参考訳(メタデータ) (2023-12-29T12:35:26Z) - Sparse Compressed Spiking Neural Network Accelerator for Object
Detection [0.1246030133914898]
スパイキングニューラルネットワーク(SNN)は、人間の脳にインスパイアされ、バイナリスパイクと非常にスパースなアクティベーションマップを送信する。
本稿では, 活性化マップと重みの疎度を生かした, スパース圧縮スパイクニューラルネットワーク加速器を提案する。
ニューラルネットワークの実験結果は、71.5$%$mAPで、ISV 3clsデータセットの混合(1,3)タイムステップを示している。
論文 参考訳(メタデータ) (2022-05-02T09:56:55Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Vega: A 10-Core SoC for IoT End-Nodes with DNN Acceleration and
Cognitive Wake-Up From MRAM-Based State-Retentive Sleep Mode [14.214500730272256]
Vegaは1.7ドルのMathrmmuWから32.2 GOPS (@ 49.4 mW)ピークまで、NSAA上でスケールアップ可能なIoTエンドノードシステムである。
ベガは8ビットINTで615 GOPS/W、32ビットと16ビットFPで79と129 GFLOPS/WのSoAリード効率を達成する。
論文 参考訳(メタデータ) (2021-10-18T08:47:45Z) - Spatio-Temporal Pruning and Quantization for Low-latency Spiking Neural
Networks [6.011954485684313]
Spiking Neural Networks(SNN)は、従来のディープラーニング方法に代わる有望な選択肢です。
しかし、SNNの大きな欠点は、高い推論遅延である。
本稿では,SNNの空間的および時間的プルーニングを提案する。
論文 参考訳(メタデータ) (2021-04-26T12:50:58Z) - Efficient and Generic 1D Dilated Convolution Layer for Deep Learning [52.899995651639436]
幅広いパラメータをカバーする汎用的な1D畳み込み層の効率的な実装を紹介します。
特にIntel AVX-512とAVX-512 BFloat16命令を含むアーキテクチャ向けに最適化されている。
本稿では,最適化された1次元畳み込み層の性能を,実際のゲノミクスデータセットを用いたエンドツーエンドニューラルネットワークトレーニングで実証する。
論文 参考訳(メタデータ) (2021-04-16T09:54:30Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z) - Event-Based Angular Velocity Regression with Spiking Networks [51.145071093099396]
スパイキングニューラルネットワーク(SNN)は、数値ではなく時間スパイクとして伝達される情報を処理する。
本稿では,イベントカメラから与えられた事象の時間回帰問題を初めて提案する。
角速度回帰を行うためにSNNをうまく訓練できることが示される。
論文 参考訳(メタデータ) (2020-03-05T17:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。