論文の概要: Bio-plausible Unsupervised Delay Learning for Extracting Temporal
Features in Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2011.09380v1
- Date: Wed, 18 Nov 2020 16:25:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 04:02:34.788591
- Title: Bio-plausible Unsupervised Delay Learning for Extracting Temporal
Features in Spiking Neural Networks
- Title(参考訳): スパイクニューラルネットワークにおける時間的特徴抽出のための生物解析不可能な遅延学習
- Authors: Alireza Nadafian, Mohammad Ganjtabesh
- Abstract要約: ニューロン間の伝導遅延の可塑性は、学習において基本的な役割を果たす。
シナプス遅延の正確な調整を理解することは、効果的な脳にインスパイアされた計算モデルを開発するのに役立ちます。
- 参考スコア(独自算出の注目度): 0.548253258922555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The plasticity of the conduction delay between neurons plays a fundamental
role in learning. However, the exact underlying mechanisms in the brain for
this modulation is still an open problem. Understanding the precise adjustment
of synaptic delays could help us in developing effective brain-inspired
computational models in providing aligned insights with the experimental
evidence. In this paper, we propose an unsupervised biologically plausible
learning rule for adjusting the synaptic delays in spiking neural networks.
Then, we provided some mathematical proofs to show that our learning rule gives
a neuron the ability to learn repeating spatio-temporal patterns. Furthermore,
the experimental results of applying an STDP-based spiking neural network
equipped with our proposed delay learning rule on Random Dot Kinematogram
indicate the efficacy of the proposed delay learning rule in extracting
temporal features.
- Abstract(参考訳): ニューロン間の伝導遅延の可塑性は学習において重要な役割を果たす。
しかし、この変調のための脳の正確なメカニズムはまだ未解決の問題である。
シナプス遅延の正確な調整を理解することは、効果的な脳にインスパイアされた計算モデルの開発に役立つ。
本稿では,スパイクニューラルネットワークのシナプス遅延を調節するための教師なしの生物学的に妥当な学習規則を提案する。
そこで我々は,学習規則がニューロンに時相パターンを繰り返し学習する能力を与えることを示す数学的証明を行った。
さらに,提案する遅延学習規則をランダムドットキネマトグラムに適用したstdpベースのスパイキングニューラルネットワークを用いた実験結果から,時間的特徴抽出における遅延学習規則の有効性が示唆された。
関連論文リスト
- Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - ELiSe: Efficient Learning of Sequences in Structured Recurrent Networks [1.5931140598271163]
局所的な常時オンおよび位相自由可塑性のみを用いて,効率的な学習シーケンスのモデルを構築した。
鳥の鳴き声学習のモックアップでELiSeの能力を実証し、パラメトリゼーションに関してその柔軟性を実証する。
論文 参考訳(メタデータ) (2024-02-26T17:30:34Z) - TC-LIF: A Two-Compartment Spiking Neuron Model for Long-Term Sequential
Modelling [54.97005925277638]
潜在的な可能性や危険に関連する感覚的手がかりの同定は、長期間の遅延によって有用な手がかりを分離する無関係な事象によってしばしば複雑になる。
SNN(State-of-the-art spiking Neural Network)は、遠方のキュー間の長期的な時間的依存関係を確立する上で、依然として困難な課題である。
そこで本研究では,T-LIFとよばれる,生物学的にインスパイアされたTwo-compartment Leaky Integrate- and-Fireのスパイキングニューロンモデルを提案する。
論文 参考訳(メタデータ) (2023-08-25T08:54:41Z) - Beyond Weights: Deep learning in Spiking Neural Networks with pure
synaptic-delay training [0.9208007322096533]
後方伝搬によるフィードフォワードスパイクネットワークの遅延をONLYでトレーニングすることで,従来の重量トレーニングに匹敵する性能が得られることを示す。
予備実験において,MNISTおよびFashion-MNISTデータセットにおける遅延専用トレーニングのタスク性能を実証した。
論文 参考訳(メタデータ) (2023-06-09T20:14:10Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Neuro-Modulated Hebbian Learning for Fully Test-Time Adaptation [22.18972584098911]
完全なテスト時間適応は、推論段階における入力サンプルのシーケンシャル解析に基づいてネットワークモデルを適応することを目的としている。
我々は,神経細胞の反応を局所的なシナプス変化の手順に基づいて調整する生物学的確率学習から着想を得た。
我々は、オンライン適応のための教師なしかつ効果的なメカニズムを提供するソフトなヘビアン学習プロセスを設計する。
論文 参考訳(メタデータ) (2023-03-02T02:18:56Z) - Axonal Delay As a Short-Term Memory for Feed Forward Deep Spiking Neural
Networks [3.985532502580783]
近年の研究では、学習過程において神経細胞の時間遅延が重要な役割を担っていることが判明している。
スパイクの正確なタイミングを設定することは、SNNにおける時間情報の伝達過程を理解し改善するための有望な方向である。
本稿では,教師付き学習に時間遅延を統合することの有効性を検証するとともに,短期記憶による軸索遅延を変調するモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-20T16:56:42Z) - Minimizing Control for Credit Assignment with Strong Feedback [65.59995261310529]
ディープニューラルネットワークにおける勾配に基づくクレジット割り当ての現在の手法は、無限小のフィードバック信号を必要とする。
我々は、神経活動に対する強いフィードバックと勾配に基づく学習を組み合わせることで、ニューラルネットワークの最適化に関する新たな視点を自然に導き出すことを示す。
DFCにおける強いフィードバックを用いることで、空間と時間において完全に局所的な学習規則を用いることで、前向きとフィードバックの接続を同時に学習できることを示す。
論文 参考訳(メタデータ) (2022-04-14T22:06:21Z) - SpikePropamine: Differentiable Plasticity in Spiking Neural Networks [0.0]
スパイキングニューラルネットワーク(SNN)におけるシナプス可塑性と神経調節シナプス可塑性のダイナミクスを学習するための枠組みを導入する。
異なる可塑性で強化されたSNNは、時間的学習課題の集合を解決するのに十分であることを示す。
これらのネットワークは、高次元のロボット学習タスクで移動を生成できることも示されている。
論文 参考訳(メタデータ) (2021-06-04T19:29:07Z) - Relaxing the Constraints on Predictive Coding Models [62.997667081978825]
予測符号化(英: Predictive coding)は、脳が行う主計算が予測誤差の最小化であるとする皮質機能の影響力のある理論である。
アルゴリズムの標準的な実装は、同じ前方と後方の重み、後方の非線形微分、1-1エラーユニット接続といった、潜在的に神経的に予測できない特徴を含んでいる。
本稿では,これらの特徴はアルゴリズムに不可欠なものではなく,Hebbianの更新ルールを用いてパラメータセットを直接あるいは学習することで,学習性能に悪影響を及ぼすことなく除去可能であることを示す。
論文 参考訳(メタデータ) (2020-10-02T15:21:37Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。