論文の概要: Control of synaptic plasticity in neural networks
- arxiv url: http://arxiv.org/abs/2303.07273v1
- Date: Fri, 10 Mar 2023 13:36:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 13:57:17.623667
- Title: Control of synaptic plasticity in neural networks
- Title(参考訳): ニューラルネットワークにおけるシナプス可塑性制御
- Authors: Mohammad Modiri
- Abstract要約: 脳は非線形で高頻度のリカレントニューラルネットワーク(RNN)である
提案するフレームワークは,エラーフィードバックループシステムをシミュレートする新しいNNベースのアクタ批判手法を含む。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The brain is a nonlinear and highly Recurrent Neural Network (RNN). This RNN
is surprisingly plastic and supports our astonishing ability to learn and
execute complex tasks. However, learning is incredibly complicated due to the
brain's nonlinear nature and the obscurity of mechanisms for determining the
contribution of each synapse to the output error. This issue is known as the
Credit Assignment Problem (CAP) and is a fundamental challenge in neuroscience
and Artificial Intelligence (AI). Nevertheless, in the current understanding of
cognitive neuroscience, it is widely accepted that a feedback loop systems play
an essential role in synaptic plasticity. With this as inspiration, we propose
a computational model by combining Neural Networks (NN) and nonlinear optimal
control theory. The proposed framework involves a new NN-based actor-critic
method which is used to simulate the error feedback loop systems and
projections on the NN's synaptic plasticity so as to ensure that the output
error is minimized.
- Abstract(参考訳): 脳は非線形で高頻度のリカレントニューラルネットワーク(RNN)である。
このRNNは驚くほどプラスチックで、複雑なタスクを学習し実行するための驚くべき能力をサポートしています。
しかし、学習は脳の非線形性と、各シナプスの出力エラーへの寄与を決定するメカニズムの欠如のため、信じられないほど複雑である。
この問題はCredit Assignment Problem(CAP)と呼ばれ、神経科学と人工知能(AI)における根本的な課題である。
しかしながら、認知神経科学の現在の理解においては、フィードバックループシステムがシナプス可塑性において重要な役割を果たすことが広く受け入れられている。
これをインスピレーションとして、ニューラルネットワーク(NN)と非線形最適制御理論を組み合わせた計算モデルを提案する。
提案フレームワークは,NNのシナプス可塑性に対する誤差フィードバックループシステムと投影をシミュレートし,出力誤差を最小限に抑えるため,新しいNNベースのアクタ批判手法を含む。
関連論文リスト
- Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Sphere Neural-Networks for Rational Reasoning [24.591858077975548]
ベクトルから球面への計算ビルディングブロックの一般化による新しい拡張を提案する。
モデル構築と検査を通して人間のような推論を行うための球ニューラルネット(SphNN)を提案する。
SphNNは、合理性-時間的推論、否定と解離を伴う論理的推論、イベント推論、ニューロシンボリック統一、ユーモア理解など、様々なタイプの推論に進化することができる。
論文 参考訳(メタデータ) (2024-03-22T15:44:59Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Exploiting Noise as a Resource for Computation and Learning in Spiking
Neural Networks [32.0086664373154]
本研究では,雑音型スパイクニューラルネットワーク(NSNN)とノイズ駆動学習規則(NDL)を紹介する。
NSNNは、スケーラブルでフレキシブルで信頼性の高い計算をもたらす理論的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-05-25T13:21:26Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Control of synaptic plasticity via the fusion of reinforcement learning
and unsupervised learning in neural networks [0.0]
認知神経科学では、シナプスの可塑性が我々の驚くべき学習能力に不可欠な役割を担っていると広く受け入れられている。
このインスピレーションにより、強化学習と教師なし学習の融合により、新しい学習規則が提案される。
提案した計算モデルでは,非線形最適制御理論を誤差フィードバックループ系に類似させる。
論文 参考訳(メタデータ) (2023-03-26T12:18:03Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Linear Leaky-Integrate-and-Fire Neuron Model Based Spiking Neural
Networks and Its Mapping Relationship to Deep Neural Networks [7.840247953745616]
スパイキングニューラルネットワーク(SNN)は、生物学的可視性や教師なし学習能力など、脳にインスパイアされた機械学習アルゴリズムである。
本稿では,リニアリーキー・インテグレート・アンド・ファイア・モデル(LIF/SNN)の生物学的パラメータとReLU-AN/Deep Neural Networks(DNN)のパラメータとの正確な数学的マッピングを確立する。
論文 参考訳(メタデータ) (2022-05-31T17:02:26Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。