論文の概要: Probabilistic spike propagation for FPGA implementation of spiking
neural networks
- arxiv url: http://arxiv.org/abs/2001.09725v1
- Date: Tue, 7 Jan 2020 06:55:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 20:07:54.939388
- Title: Probabilistic spike propagation for FPGA implementation of spiking
neural networks
- Title(参考訳): スパイクニューラルネットワークのFPGA実装のための確率的スパイク伝播
- Authors: Abinand Nallathambi and Nitin Chandrachoodan
- Abstract要約: 本稿では,重みの確率論的解釈に基づくスパイク伝播手法を提案する。
我々は,Xilinx Zynqプラットフォーム上でのMNISTおよびCIFAR10データセットの完全接続および畳み込みネットワーク上でのアーキテクチャとトレードオフについて述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evaluation of spiking neural networks requires fetching a large number of
synaptic weights to update postsynaptic neurons. This limits parallelism and
becomes a bottleneck for hardware.
We present an approach for spike propagation based on a probabilistic
interpretation of weights, thus reducing memory accesses and updates. We study
the effects of introducing randomness into the spike processing, and show on
benchmark networks that this can be done with minimal impact on the recognition
accuracy.
We present an architecture and the trade-offs in accuracy on fully connected
and convolutional networks for the MNIST and CIFAR10 datasets on the Xilinx
Zynq platform.
- Abstract(参考訳): スパイキングニューラルネットワークの評価には、シナプス後ニューロンを更新するために大量のシナプス重みをフェッチする必要がある。
これは並列性を制限し、ハードウェアのボトルネックとなる。
本稿では,重みの確率論的解釈に基づくスパイク伝播手法を提案する。
本研究では,スパイク処理におけるランダム性の導入効果について検討し,認識精度への影響を最小限に抑えて,ベンチマークネットワークに示す。
我々は,Xilinx Zynqプラットフォーム上でのMNISTおよびCIFAR10データセットの完全接続および畳み込みネットワーク上でのアーキテクチャとトレードオフについて述べる。
関連論文リスト
- Synchronized Stepwise Control of Firing and Learning Thresholds in a Spiking Randomly Connected Neural Network toward Hardware Implementation [0.0]
固有可塑性(IP)とシナプス可塑性(SP)のハードウェア指向モデルを提案する。
心電図を用いたスパイキングRNNによる時間的データ学習と異常検出のシミュレーションにより,本モデルの有効性を実証する。
論文 参考訳(メタデータ) (2024-04-26T08:26:10Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - YFlows: Systematic Dataflow Exploration and Code Generation for
Efficient Neural Network Inference using SIMD Architectures on CPUs [3.1445034800095413]
CPU上にニューラルネットワークをデプロイする際の課題に対処する。
我々の新しいアプローチは、ニューラルネットワークのデータフローを使用して、データ再利用の機会を探ることです。
その結果,SIMDレジスタに出力を保持するデータフローが常に最高の性能を示すことがわかった。
論文 参考訳(メタデータ) (2023-10-01T05:11:54Z) - Spike-and-slab shrinkage priors for structurally sparse Bayesian neural networks [0.16385815610837165]
スパースディープラーニングは、基礎となるターゲット関数のスパース表現を復元することで、課題に対処する。
構造化された空間によって圧縮されたディープニューラルアーキテクチャは、低レイテンシ推論、データスループットの向上、エネルギー消費の削減を提供する。
本研究では, (i) Spike-and-Slab Group Lasso (SS-GL) と (ii) Spike-and-Slab Group Horseshoe (SS-GHS) を併用した過剰ノードを誘発する構造的疎いベイズニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-08-17T17:14:18Z) - Set-based Neural Network Encoding Without Weight Tying [91.37161634310819]
本稿では,ネットワーク特性予測のためのニューラルネットワーク重み符号化手法を提案する。
我々のアプローチは、混合アーキテクチャのモデル動物園でニューラルネットワークを符号化することができる。
ニューラルネットワークのプロパティ予測には,クロスデータセットとクロスアーキテクチャという,2つの新しいタスクを導入する。
論文 参考訳(メタデータ) (2023-05-26T04:34:28Z) - Accelerating Training and Inference of Graph Neural Networks with Fast
Sampling and Pipelining [58.10436813430554]
グラフニューラルネットワーク(GNN)のミニバッチトレーニングには、多くの計算とデータ移動が必要である。
我々は,分散マルチGPU環境において,近傍サンプリングを用いたミニバッチトレーニングを行うことを支持する。
本稿では,これらのボトルネックを緩和する一連の改良点について述べる。
また,サンプリングによる推論を支援する実験分析を行い,試験精度が実質的に損なわれていないことを示す。
論文 参考訳(メタデータ) (2021-10-16T02:41:35Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - Benchmarking Quantized Neural Networks on FPGAs with FINN [0.42439262432068253]
精度を下げるには、精度の低下を無視するコストがかかる。
本稿では、FPGA上にデプロイされたニューラルネットワークに適用した場合の混合精度の影響を評価することを目的とする。
論文 参考訳(メタデータ) (2021-02-02T06:42:07Z) - Robust and fast post-processing of single-shot spin qubit detection
events with a neural network [0.0]
我々は、単発スピン検出イベントの集合を分類するためにニューラルネットワークを訓練する。
その結果,Rabi-oscillationの可視性は7%向上した。
論文 参考訳(メタデータ) (2020-12-08T19:13:09Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。