論文の概要: Probabilistic spike propagation for FPGA implementation of spiking
neural networks
- arxiv url: http://arxiv.org/abs/2001.09725v1
- Date: Tue, 7 Jan 2020 06:55:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 20:07:54.939388
- Title: Probabilistic spike propagation for FPGA implementation of spiking
neural networks
- Title(参考訳): スパイクニューラルネットワークのFPGA実装のための確率的スパイク伝播
- Authors: Abinand Nallathambi and Nitin Chandrachoodan
- Abstract要約: 本稿では,重みの確率論的解釈に基づくスパイク伝播手法を提案する。
我々は,Xilinx Zynqプラットフォーム上でのMNISTおよびCIFAR10データセットの完全接続および畳み込みネットワーク上でのアーキテクチャとトレードオフについて述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evaluation of spiking neural networks requires fetching a large number of
synaptic weights to update postsynaptic neurons. This limits parallelism and
becomes a bottleneck for hardware.
We present an approach for spike propagation based on a probabilistic
interpretation of weights, thus reducing memory accesses and updates. We study
the effects of introducing randomness into the spike processing, and show on
benchmark networks that this can be done with minimal impact on the recognition
accuracy.
We present an architecture and the trade-offs in accuracy on fully connected
and convolutional networks for the MNIST and CIFAR10 datasets on the Xilinx
Zynq platform.
- Abstract(参考訳): スパイキングニューラルネットワークの評価には、シナプス後ニューロンを更新するために大量のシナプス重みをフェッチする必要がある。
これは並列性を制限し、ハードウェアのボトルネックとなる。
本稿では,重みの確率論的解釈に基づくスパイク伝播手法を提案する。
本研究では,スパイク処理におけるランダム性の導入効果について検討し,認識精度への影響を最小限に抑えて,ベンチマークネットワークに示す。
我々は,Xilinx Zynqプラットフォーム上でのMNISTおよびCIFAR10データセットの完全接続および畳み込みネットワーク上でのアーキテクチャとトレードオフについて述べる。
関連論文リスト
- Bayesian Inference Accelerator for Spiking Neural Networks [3.145754107337963]
スパイキングニューラルネットワーク(SNN)は、計算面積と電力を減らす可能性がある。
本研究では,効率的なベイズSNNをハードウェア上で開発・実装するための最適化フレームワークについて述べる。
我々は、完全精度のベルヌーイパラメータを持つベイジアンバイナリネットワークに匹敵するアキュラ級数を示し、最大25時間分のスパイクを減らした。
論文 参考訳(メタデータ) (2024-01-27T16:27:19Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - YFlows: Systematic Dataflow Exploration and Code Generation for
Efficient Neural Network Inference using SIMD Architectures on CPUs [3.1445034800095413]
CPU上にニューラルネットワークをデプロイする際の課題に対処する。
我々の新しいアプローチは、ニューラルネットワークのデータフローを使用して、データ再利用の機会を探ることです。
その結果,SIMDレジスタに出力を保持するデータフローが常に最高の性能を示すことがわかった。
論文 参考訳(メタデータ) (2023-10-01T05:11:54Z) - Accelerating Training and Inference of Graph Neural Networks with Fast
Sampling and Pipelining [58.10436813430554]
グラフニューラルネットワーク(GNN)のミニバッチトレーニングには、多くの計算とデータ移動が必要である。
我々は,分散マルチGPU環境において,近傍サンプリングを用いたミニバッチトレーニングを行うことを支持する。
本稿では,これらのボトルネックを緩和する一連の改良点について述べる。
また,サンプリングによる推論を支援する実験分析を行い,試験精度が実質的に損なわれていないことを示す。
論文 参考訳(メタデータ) (2021-10-16T02:41:35Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - Benchmarking Quantized Neural Networks on FPGAs with FINN [0.42439262432068253]
精度を下げるには、精度の低下を無視するコストがかかる。
本稿では、FPGA上にデプロイされたニューラルネットワークに適用した場合の混合精度の影響を評価することを目的とする。
論文 参考訳(メタデータ) (2021-02-02T06:42:07Z) - ItNet: iterative neural networks with small graphs for accurate and
efficient anytime prediction [1.52292571922932]
本研究では,計算グラフの観点から,メモリフットプリントが小さいネットワークモデルについて紹介する。
CamVidおよびCityscapesデータセットでセマンティックセグメンテーションの最新の結果を示します。
論文 参考訳(メタデータ) (2021-01-21T15:56:29Z) - Robust and fast post-processing of single-shot spin qubit detection
events with a neural network [0.0]
我々は、単発スピン検出イベントの集合を分類するためにニューラルネットワークを訓練する。
その結果,Rabi-oscillationの可視性は7%向上した。
論文 参考訳(メタデータ) (2020-12-08T19:13:09Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。