論文の概要: SPA: Stochastic Probability Adjustment for System Balance of
Unsupervised SNNs
- arxiv url: http://arxiv.org/abs/2010.09690v2
- Date: Thu, 6 May 2021 07:53:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 20:39:18.298780
- Title: SPA: Stochastic Probability Adjustment for System Balance of
Unsupervised SNNs
- Title(参考訳): SPA: 教師なしSNNのシステムバランスに対する確率確率調整
- Authors: Xingyu Yang, Mingyuan Meng, Shanlin Xiao, and Zhiyi Yu
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、低消費電力のハードウェア特性と脳に似た信号応答機構のために広く注目を集めている。
我々は,このギャップを減らすために,確率調整(Probability Adjustment, SPA)と呼ばれる情報理論に着想を得たシステムを構築した。
分類精度の改善はMNISTデータセットとEMNISTデータセットでそれぞれ1.99%と6.29%に達した。
- 参考スコア(独自算出の注目度): 2.729898906885749
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Spiking neural networks (SNNs) receive widespread attention because of their
low-power hardware characteristic and brain-like signal response mechanism, but
currently, the performance of SNNs is still behind Artificial Neural Networks
(ANNs). We build an information theory-inspired system called Stochastic
Probability Adjustment (SPA) system to reduce this gap. The SPA maps the
synapses and neurons of SNNs into a probability space where a neuron and all
connected pre-synapses are represented by a cluster. The movement of synaptic
transmitter between different clusters is modeled as a Brownian-like stochastic
process in which the transmitter distribution is adaptive at different firing
phases. We experimented with a wide range of existing unsupervised SNN
architectures and achieved consistent performance improvements. The
improvements in classification accuracy have reached 1.99% and 6.29% on the
MNIST and EMNIST datasets respectively.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、低消費電力のハードウェア特性と脳に似た信号応答機構のため、広く注目を集めているが、現在、SNNのパフォーマンスはArtificial Neural Networks(ANN)に遅れを取っている。
我々は、このギャップを減らすために、確率確率調整(SPA)システムという情報理論に着想を得たシステムを構築した。
SPAは、SNNのシナプスとニューロンを、ニューロンと全ての連結プレシナプスがクラスタによって表現される確率空間にマッピングする。
異なるクラスター間のシナプス伝達器の移動は、異なる燃焼相で伝達器分布が適応するブラウン様確率過程としてモデル化される。
既存のSNNアーキテクチャを幅広く実験し、一貫した性能向上を実現した。
分類精度の改善はMNISTデータセットとEMNISTデータセットでそれぞれ1.99%と6.29%に達した。
関連論文リスト
- Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Fully Spiking Denoising Diffusion Implicit Models [61.32076130121347]
スパイキングニューラルネットワーク(SNN)は、超高速のニューロモルフィックデバイス上で走る能力のため、かなりの注目を集めている。
本研究では,SNN内で拡散モデルを構築するために,拡散暗黙モデル (FSDDIM) を完全にスパイクする新しい手法を提案する。
提案手法は,最先端の完全スパイク生成モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-04T09:07:09Z) - High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - STSC-SNN: Spatio-Temporal Synaptic Connection with Temporal Convolution
and Attention for Spiking Neural Networks [7.422913384086416]
ニューロモルフィックコンピューティングのアルゴリズムモデルの一つであるスパイキングニューラルネットワーク(SNN)は、時間的処理能力のために多くの研究注目を集めている。
SNNの既存のシナプス構造は、ほぼ完全な接続や空間的2次元畳み込みであり、どちらも時間的依存関係を適切に抽出できない。
生体シナプスからインスピレーションを得てシナプス接続SNNモデルを提案し,シナプス接続の時間的受容場を強化する。
時間的依存を伴うシナプスモデルの提供は、分類タスクにおけるSNNの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:13:22Z) - Heterogeneous Recurrent Spiking Neural Network for Spatio-Temporal
Classification [13.521272923545409]
Spi Neural Networksは、人工知能の第3波の脳にインスパイアされた学習モデルとしてしばしば評価される。
本稿では,ビデオ認識タスクのための教師なし学習を用いたヘテロジニアススパイキングニューラルネットワーク(HRSNN)を提案する。
本研究では,時間的バックプロパゲーション訓練による教師付きSNNに類似した性能を実現することができるが,少ない計算量で実現可能であることを示す。
論文 参考訳(メタデータ) (2022-09-22T16:34:01Z) - On the Intrinsic Structures of Spiking Neural Networks [66.57589494713515]
近年、時間依存データやイベント駆動データを扱う大きな可能性から、SNNへの関心が高まっている。
スパイキング計算における本質的な構造の影響を総合的に調査する研究が数多く行われている。
この研究はSNNの本質的な構造を深く掘り下げ、SNNの表現性への影響を解明する。
論文 参考訳(メタデータ) (2022-06-21T09:42:30Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - BackEISNN: A Deep Spiking Neural Network with Adaptive Self-Feedback and
Balanced Excitatory-Inhibitory Neurons [8.956708722109415]
スパイクニューラルネットワーク(SNN)は離散スパイクを通して情報を伝達し、空間時間情報を処理するのによく機能する。
適応型自己フィードバックと平衡興奮性および抑制性ニューロン(BackEISNN)を用いた深部スパイクニューラルネットワークを提案する。
MNIST、FashionMNIST、N-MNISTのデータセットに対して、我々のモデルは最先端の性能を達成した。
論文 参考訳(メタデータ) (2021-05-27T08:38:31Z) - Spatio-Temporal Neural Network for Fitting and Forecasting COVID-19 [1.1129587851149594]
我々は、2020年の世界的な新型コロナウイルス感染拡大を予測するため、時空間ニューラルネットワーク(STNN)を構築した。
拡張空間状態STNN(STNN-A)と入力ゲートSTNN(STNN-I)の2つの改良されたSTNNアーキテクチャを提案する。
数値シミュレーションにより、STNNモデルはより正確なフィッティングと予測を提供し、空間データと時間データの両方を扱うことにより、他の多くのモデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2021-03-22T13:59:14Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。