論文の概要: Supervised Learning in Temporally-Coded Spiking Neural Networks with
Approximate Backpropagation
- arxiv url: http://arxiv.org/abs/2007.13296v1
- Date: Mon, 27 Jul 2020 03:39:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 07:34:23.671332
- Title: Supervised Learning in Temporally-Coded Spiking Neural Networks with
Approximate Backpropagation
- Title(参考訳): 近似バックプロパゲーションを用いた時間符号化スパイクニューラルネットワークの教師あり学習
- Authors: Andrew Stephan, Brian Gardner, Steven J. Koester, Andre Gruning
- Abstract要約: 本稿では,時間的に符号化された多層スパイキングネットワークのための教師付き学習手法を提案する。
この方法はバックプロパゲーションを模倣する強化信号を用いるが、計算集約性ははるかに低い。
シミュレーションされたMNIST手書き桁分類では、このルールで訓練された2層ネットワークは、同等のバックプロパゲーションベースの非スパイキングネットワークの性能と一致した。
- 参考スコア(独自算出の注目度): 0.021506382989223777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we propose a new supervised learning method for
temporally-encoded multilayer spiking networks to perform classification. The
method employs a reinforcement signal that mimics backpropagation but is far
less computationally intensive. The weight update calculation at each layer
requires only local data apart from this signal. We also employ a rule capable
of producing specific output spike trains; by setting the target spike time
equal to the actual spike time with a slight negative offset for key high-value
neurons the actual spike time becomes as early as possible. In simulated MNIST
handwritten digit classification, two-layer networks trained with this rule
matched the performance of a comparable backpropagation based non-spiking
network.
- Abstract(参考訳): 本研究では,時間符号化多層スパイクネットワークによる分類を行うための教師付き学習手法を提案する。
この方法はバックプロパゲーションを模倣する強化信号を用いるが、計算集約性ははるかに低い。
各層における重み更新計算は、この信号とは別に局所データのみを必要とする。
また、特定の出力スパイク列を生成できるルールも採用し、キー高値ニューロンに対してわずかに負のオフセットで実際のスパイク時間に等しい目標スパイク時間を設定することにより、実際のスパイク時間ができるだけ早くなる。
このルールでトレーニングされた2層ネットワークは、mnist手書きの数字分類をシミュレートすると、同等のバックプロパゲーションベースの非スパイキングネットワークの性能に匹敵する。
関連論文リスト
- How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Properties and Potential Applications of Random Functional-Linked Types
of Neural Networks [81.56822938033119]
ランダム関数リンクニューラルネットワーク(RFLNN)は、深い構造を学習する別の方法を提供する。
本稿では周波数領域の観点からRFLNNの特性について考察する。
本稿では,より優れた性能でBLSネットワークを生成する手法を提案し,ポゾン方程式を解くための効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-04-03T13:25:22Z) - Desire Backpropagation: A Lightweight Training Algorithm for Multi-Layer
Spiking Neural Networks based on Spike-Timing-Dependent Plasticity [13.384228628766236]
スパイキングニューラルネットワーク(SNN)は、従来の人工ニューラルネットワークの代替となる。
本研究は,隠されたニューロンを含むすべてのニューロンの所望のスパイク活性を導出する方法である欲求バックプロパゲーションを提示する。
我々はMNISTとFashion-MNISTを分類するために3層ネットワークを訓練し、それぞれ98.41%と87.56%の精度に達した。
論文 参考訳(メタデータ) (2022-11-10T08:32:13Z) - Local learning through propagation delays in spiking neural networks [0.0]
本研究では,スパイク伝播時間に活動依存性の可塑性が生じるスパイクニューラルネットワークの局所学習規則を提案する。
本手法を手書き桁のデータベースから入力した3層フィードフォワードネットワークで実演する。
論文 参考訳(メタデータ) (2022-10-27T13:48:40Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Online learning of windmill time series using Long Short-term Cognitive
Networks [58.675240242609064]
風車農場で生成されたデータの量は、オンライン学習が従うべき最も有効な戦略となっている。
我々はLong Short-term Cognitive Networks (LSTCNs) を用いて、オンライン環境での風車時系列を予測する。
提案手法は,単純なRNN,長期記憶,Gated Recurrent Unit,Hidden Markov Modelに対して最も低い予測誤差を報告した。
論文 参考訳(メタデータ) (2021-07-01T13:13:24Z) - Spiking-GAN: A Spiking Generative Adversarial Network Using
Time-To-First-Spike Coding [0.0]
我々は、最初のスパイクベースジェネレーティブ・アドバイサル・ネットワーク(GAN)であるSpking-GANを提案する。
タイム・ツー・ファースト・スパイク・コーディング(Time-to-first-Spike coding)と呼ばれるテンポラリなコーディング方式を採用している。
我々の修正時間損失関数である「攻撃的TTFS」は、ネットワークの推論時間を33%以上改善し、ネットワーク内のスパイク数を11%以上削減する。
論文 参考訳(メタデータ) (2021-06-29T13:43:07Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Event-Based Backpropagation can compute Exact Gradients for Spiking
Neural Networks [0.0]
スパイクニューラルネットワークは、離散スパイクを用いたアナログ計算とイベントベースの通信を組み合わせる。
この研究は、連続時間スパイクニューラルネットワークと一般損失関数のバックプロパゲーションアルゴリズムを初めて導いた。
EventProp経由で計算した勾配を用いて,スパイク時間あるいは電圧に基づく損失関数を用いて,Yin-YangおよびMNISTデータセット上のネットワークをトレーニングし,競合性能を報告する。
論文 参考訳(メタデータ) (2020-09-17T15:45:00Z) - Coarse scale representation of spiking neural networks: backpropagation
through spikes and application to neuromorphic hardware [0.0]
絶対屈折時間に等しい時間スケールで作動する漏洩積分と発火ニューロンの繰り返し表現について検討する。
繰り返しモデルでは,訓練中に4本のスパイク列車のみを用いて,高い分類精度が得られることがわかった。
我々はまた、漏れやすい統合と発火ニューロンの継続的な実装への良い回帰も観察した。
論文 参考訳(メタデータ) (2020-07-13T04:02:35Z) - Rapid Structural Pruning of Neural Networks with Set-based Task-Adaptive
Meta-Pruning [83.59005356327103]
既存のプルーニング技術に共通する制限は、プルーニングの前に少なくとも1回はネットワークの事前トレーニングが必要であることである。
本稿では,ターゲットデータセットの関数としてプルーニングマスクを生成することにより,大規模な参照データセット上で事前訓練されたネットワークをタスク適応的にプルークするSTAMPを提案する。
ベンチマークデータセット上での最近の先進的なプルーニング手法に対するSTAMPの有効性を検証する。
論文 参考訳(メタデータ) (2020-06-22T10:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。