論文の概要: SpinAPS: A High-Performance Spintronic Accelerator for Probabilistic
Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2008.02189v1
- Date: Wed, 5 Aug 2020 15:37:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 18:22:14.350351
- Title: SpinAPS: A High-Performance Spintronic Accelerator for Probabilistic
Spiking Neural Networks
- Title(参考訳): SpinAPS:確率スパイクニューラルネットワークのための高性能スピントロニクス加速器
- Authors: Anakha V Babu, Osvaldo Simeone, Bipin Rajendran
- Abstract要約: Spintronic Accelerator for Probabilistic SNNの"SpinAPS"は、ファースト・ツー・スパイク復号のための原則的直接学習ルールを実装している。
提案手法は,手書き桁と人的活動認識ベンチマークにおいて,同等のANNで同等の性能を達成できることが示されている。
- 参考スコア(独自算出の注目度): 31.3159725020842
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We discuss a high-performance and high-throughput hardware accelerator for
probabilistic Spiking Neural Networks (SNNs) based on Generalized Linear Model
(GLM) neurons, that uses binary STT-RAM devices as synapses and digital CMOS
logic for neurons. The inference accelerator, termed "SpinAPS" for Spintronic
Accelerator for Probabilistic SNNs, implements a principled direct learning
rule for first-to-spike decoding without the need for conversion from
pre-trained ANNs. The proposed solution is shown to achieve comparable
performance with an equivalent ANN on handwritten digit and human activity
recognition benchmarks. The inference engine, SpinAPS, is shown through
software emulation tools to achieve 4x performance improvement in terms of
GSOPS/W/mm2 when compared to an equivalent SRAM-based design. The architecture
leverages probabilistic spiking neural networks that employ first-to-spike
decoding rule to make inference decisions at low latencies, achieving 75% of
the test performance in as few as 4 algorithmic time steps on the handwritten
digit benchmark. The accelerator also exhibits competitive performance with
other memristor-based DNN/SNN accelerators and state-of-the-art GPUs.
- Abstract(参考訳): 本稿では、一般化線形モデル(GLM)ニューロンをベースとした確率スパイキングニューラルネットワーク(SNN)のための高性能かつ高速なハードウェアアクセラレータについて論じる。
Spintronic Accelerator for Probabilistic SNNsの"SpinAPS"と呼ばれるこの推論アクセラレータは、事前訓練されたANNからの変換を必要とせずに、ファースト・ツー・スパイク復号のための原則付き直接学習ルールを実装している。
提案手法は,手書き指とヒューマンアクティビティ認識ベンチマークで同等の ann と同等の性能が得られることを示す。
推論エンジンであるSpinAPSは、ソフトウェアエミュレーションツールを通じて、同等のSRAMベースの設計と比較して、GSOPS/W/mm2の4倍の性能向上を実現する。
このアーキテクチャは、ファースト・ツー・スパイク・デコーディング・ルールを利用した確率論的スパイクニューラルネットワークを利用して低レイテンシで推論決定を行い、手書きのディジット・ベンチマークで4段階のアルゴリズムでテスト性能の75%を達成している。
このアクセラレータは、他のmemristorベースのDNN/SNNアクセラレータや最先端のGPUと競合するパフォーマンスを示す。
関連論文リスト
- Hardware-Software Co-optimised Fast and Accurate Deep Reconfigurable Spiking Inference Accelerator Architecture Design Methodology [2.968768532937366]
Spiking Neural Networks(SNN)は、機械学習モデルのエネルギー効率を改善するための有望なアプローチとして登場した。
我々は,ソフトウェア学習深層ニューラルネットワーク(DNN)を高精度スパイキングモデルに移植するハードウェア・ソフトウェア共同最適化戦略を開発した。
論文 参考訳(メタデータ) (2024-10-07T05:04:13Z) - Spiker+: a framework for the generation of efficient Spiking Neural
Networks FPGA accelerators for inference at the edge [49.42371633618761]
Spiker+はFPGA上で、エッジでの推論のために効率よく、低消費電力で、低領域でカスタマイズされたSpking Neural Networks(SNN)アクセラレータを生成するためのフレームワークである。
Spiker+ は MNIST と Spiking Heidelberg Digits (SHD) の2つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2024-01-02T10:42:42Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - Automotive Object Detection via Learning Sparse Events by Spiking Neurons [20.930277906912394]
スパイキングニューラルネットワーク(SNN)は、本質的にイベントベースのデータと整合した時間的表現を提供する。
自動車のイベントベース物体検出に最適化された特化スパイキング特徴ピラミッドネットワーク(SpikeFPN)を提案する。
論文 参考訳(メタデータ) (2023-07-24T15:47:21Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - DNN Training Acceleration via Exploring GPGPU Friendly Sparsity [16.406482603838157]
本稿では、従来のランダムなニューロンやシナプスのドロップアウトを、通常のオンラインの行ベースもしくはタイルベースのドロップアウトパターンに置き換える近似ランダムドロップアウトを提案する。
次に,SGDに基づく探索アルゴリズムを開発し,行ベースあるいはタイルベースのドロップアウトパターンの分布を生成し,潜在的な精度損失を補う。
また,入力特徴図をその感度に基づいて動的にドロップアウトし,前向きおよび後向きのトレーニングアクセラレーションを実現するための感度対応ドロップアウト手法を提案する。
論文 参考訳(メタデータ) (2022-03-11T01:32:03Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - H2Learn: High-Efficiency Learning Accelerator for High-Accuracy Spiking
Neural Networks [25.768116231283045]
H2Learnは,BPTTに基づくSNN学習において,高い効率を実現する新しいアーキテクチャである。
最新のNVIDIA V100 GPUと比較して、H2Learnは7.38倍の領域節約、5.74-10.20倍のスピードアップ、5.25-7.12倍の省エネを実現している。
論文 参考訳(メタデータ) (2021-07-25T07:37:17Z) - Learning N:M Fine-grained Structured Sparse Neural Networks From Scratch [75.69506249886622]
ディープニューラルネットワーク(DNN)におけるスパーシティは、資源制約された環境でモデルを圧縮し、加速するために広く研究されている。
本稿では,N:M細粒構造スパースネットワークのスクラッチからトレーニングを初めて行う。
論文 参考訳(メタデータ) (2021-02-08T05:55:47Z) - Compiling Spiking Neural Networks to Neuromorphic Hardware [4.273223677453178]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上で実行される機械学習アプリケーションのエネルギー消費を減少させる。
本稿では,資源制約のあるニューロモルフィックハードウェア上でSNNを分析し,コンパイルする手法を提案する。
論文 参考訳(メタデータ) (2020-04-07T21:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。