論文の概要: Local learning through propagation delays in spiking neural networks
- arxiv url: http://arxiv.org/abs/2211.08397v1
- Date: Thu, 27 Oct 2022 13:48:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 14:08:43.696978
- Title: Local learning through propagation delays in spiking neural networks
- Title(参考訳): スパイクニューラルネットワークにおける伝播遅延による局所学習
- Authors: J{\o}rgen Jensen Farner, Ola Huse Ramstad, Stefano Nichele, Kristine
Heiney
- Abstract要約: 本研究では,スパイク伝播時間に活動依存性の可塑性が生じるスパイクニューラルネットワークの局所学習規則を提案する。
本手法を手書き桁のデータベースから入力した3層フィードフォワードネットワークで実演する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel local learning rule for spiking neural networks in which
spike propagation times undergo activity-dependent plasticity. Our plasticity
rule aligns pre-synaptic spike times to produce a stronger and more rapid
response. Inputs are encoded by latency coding and outputs decoded by matching
similar patterns of output spiking activity. We demonstrate the use of this
method in a three-layer feedfoward network with inputs from a database of
handwritten digits. Networks consistently improve their classification accuracy
after training, and training with this method also allowed networks to
generalize to an input class unseen during training. Our proposed method takes
advantage of the ability of spiking neurons to support many different
time-locked sequences of spikes, each of which can be activated by different
input activations. The proof-of-concept shown here demonstrates the great
potential for local delay learning to expand the memory capacity and
generalizability of spiking neural networks.
- Abstract(参考訳): スパイク伝播時間が活動に依存する可塑性を受けるスパイクニューラルネットワークのための新しい局所学習ルールを提案する。
我々の可塑性規則はシナプス前のスパイク時間と一致し、より強く、より速い反応を生み出す。
入力は遅延符号化によって符号化され、出力スパイクアクティビティの類似パターンにマッチしてデコードされる。
本研究では,手書き桁のデータベースから入力した3層フィードフォワードネットワークにおいて,この手法の使用例を示す。
ネットワークは、トレーニング後の分類精度を一貫して向上させ、この方法によるトレーニングにより、トレーニング中の入力クラスへの一般化も可能となった。
提案手法では,ニューロンをスパイクすることで複数のスパイクの時間同期配列をサポートし,それぞれが異なる入力活性化によって活性化される。
ここで示した概念実証は、局所遅延学習がスパイクニューラルネットワークのメモリ容量と一般化性を拡大する大きな可能性を示している。
関連論文リスト
- NeuralFastLAS: Fast Logic-Based Learning from Raw Data [54.938128496934695]
シンボリック・ルール学習者は解釈可能な解を生成するが、入力を記号的に符号化する必要がある。
ニューロシンボリックアプローチは、ニューラルネットワークを使用して生データを潜在シンボリック概念にマッピングすることで、この問題を克服する。
我々は,ニューラルネットワークを記号学習者と共同でトレーニングする,スケーラブルで高速なエンドツーエンドアプローチであるNeuralFastLASを紹介する。
論文 参考訳(メタデータ) (2023-10-08T12:33:42Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Properties and Potential Applications of Random Functional-Linked Types
of Neural Networks [81.56822938033119]
ランダム関数リンクニューラルネットワーク(RFLNN)は、深い構造を学習する別の方法を提供する。
本稿では周波数領域の観点からRFLNNの特性について考察する。
本稿では,より優れた性能でBLSネットワークを生成する手法を提案し,ポゾン方程式を解くための効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-04-03T13:25:22Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Multirate Training of Neural Networks [0.0]
視覚およびNLPにおける様々な伝達学習アプリケーションに対して、ほぼ半分の時間でディープニューラルネットワークを微調整できることを示す。
本稿では,異なる時間スケールで全ネットワークをトレーニングすることで,データに存在するさまざまな特徴を同時に学習するマルチレート手法を提案する。
論文 参考訳(メタデータ) (2021-06-20T22:44:55Z) - A Study On the Effects of Pre-processing On Spatio-temporal Action
Recognition Using Spiking Neural Networks Trained with STDP [0.0]
ビデオ分類タスクにおいて,教師なし学習手法で訓練したSNNの行動を研究することが重要である。
本稿では,時間情報を静的な形式に変換し,遅延符号化を用いて視覚情報をスパイクに変換する手法を提案する。
スパイクニューラルネットワークを用いた行動認識における行動の形状と速度の類似性の効果を示す。
論文 参考訳(メタデータ) (2021-05-31T07:07:48Z) - Adaptive conversion of real-valued input into spike trains [91.3755431537592]
本稿では,実数値入力をスパイクトレインに変換し,スパイクニューラルネットワークで処理する方法を提案する。
提案手法は網膜神経節細胞の適応的挙動を模倣し,入力ニューロンが入力の統計の変化に応答することを可能にする。
論文 参考訳(メタデータ) (2021-04-12T12:33:52Z) - Supervised Learning with First-to-Spike Decoding in Multilayer Spiking
Neural Networks [0.0]
本稿では,多層スパイキングニューラルネットワークを学習して分類問題を解くための教師あり学習手法を提案する。
提案した学習規則は、隠れニューロンが発する複数のスパイクをサポートし、決定論的出力層によって生成された最初のスパイク応答に依存することにより安定である。
また、入力データのコンパクト表現を形成するために、いくつかの異なるスパイクベースの符号化戦略についても検討する。
論文 参考訳(メタデータ) (2020-08-16T15:34:48Z) - Supervised Learning in Temporally-Coded Spiking Neural Networks with
Approximate Backpropagation [0.021506382989223777]
本稿では,時間的に符号化された多層スパイキングネットワークのための教師付き学習手法を提案する。
この方法はバックプロパゲーションを模倣する強化信号を用いるが、計算集約性ははるかに低い。
シミュレーションされたMNIST手書き桁分類では、このルールで訓練された2層ネットワークは、同等のバックプロパゲーションベースの非スパイキングネットワークの性能と一致した。
論文 参考訳(メタデータ) (2020-07-27T03:39:49Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z) - AL2: Progressive Activation Loss for Learning General Representations in
Classification Neural Networks [12.14537824884951]
本稿では,トレーニング中のアクティベーションの規模を段階的に罰する新たな正規化手法を提案する。
本手法が一般化に与える影響をラベルランダム化試験と累積アブレーションを用いて解析した。
論文 参考訳(メタデータ) (2020-03-07T18:38:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。