論文の概要: Control of synaptic plasticity via the fusion of reinforcement learning
and unsupervised learning in neural networks
- arxiv url: http://arxiv.org/abs/2303.14705v1
- Date: Sun, 26 Mar 2023 12:18:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 18:00:24.946900
- Title: Control of synaptic plasticity via the fusion of reinforcement learning
and unsupervised learning in neural networks
- Title(参考訳): ニューラルネットワークにおける強化学習と教師なし学習の融合によるシナプス可塑性制御
- Authors: Mohammad Modiri
- Abstract要約: 認知神経科学では、シナプスの可塑性が我々の驚くべき学習能力に不可欠な役割を担っていると広く受け入れられている。
このインスピレーションにより、強化学習と教師なし学習の融合により、新しい学習規則が提案される。
提案した計算モデルでは,非線形最適制御理論を誤差フィードバックループ系に類似させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The brain can learn to execute a wide variety of tasks quickly and
efficiently. Nevertheless, most of the mechanisms that enable us to learn are
unclear or incredibly complicated. Recently, considerable efforts have been
made in neuroscience and artificial intelligence to understand and model the
structure and mechanisms behind the amazing learning capability of the brain.
However, in the current understanding of cognitive neuroscience, it is widely
accepted that synaptic plasticity plays an essential role in our amazing
learning capability. This mechanism is also known as the Credit Assignment
Problem (CAP) and is a fundamental challenge in neuroscience and Artificial
Intelligence (AI). The observations of neuroscientists clearly confirm the role
of two important mechanisms including the error feedback system and
unsupervised learning in synaptic plasticity. With this inspiration, a new
learning rule is proposed via the fusion of reinforcement learning (RL) and
unsupervised learning (UL). In the proposed computational model, the nonlinear
optimal control theory is used to resemble the error feedback loop systems and
project the output error to neurons membrane potential (neurons state), and an
unsupervised learning rule based on neurons membrane potential or neurons
activity are utilized to simulate synaptic plasticity dynamics to ensure that
the output error is minimized.
- Abstract(参考訳): 脳は様々なタスクを迅速かつ効率的に実行することを学ぶことができる。
それでも、私たちが学べるメカニズムのほとんどは、不明確か信じられないほど複雑です。
近年、脳の驚くべき学習能力の背後にある構造とメカニズムを理解しモデル化するために、神経科学と人工知能においてかなりの努力がなされている。
しかし、認知神経科学の現在の理解においては、シナプスの可塑性が我々の驚くべき学習能力に不可欠な役割を果たすことが広く受け入れられている。
このメカニズムはCredit Assignment Problem(CAP)としても知られ、神経科学と人工知能(AI)における根本的な課題である。
神経科学者の観察は、相乗的可塑性におけるエラーフィードバックシステムと教師なし学習を含む2つの重要なメカニズムの役割を明確に裏付けている。
このインスピレーションにより、強化学習(RL)と教師なし学習(UL)の融合により、新しい学習規則が提案される。
提案した計算モデルでは, 非線形最適制御理論を用いて, 誤差フィードバックループ系に類似し, 出力誤差をニューロン膜電位(ニューロン状態)に投影し, ニューロン膜電位やニューロン活動に基づく教師なし学習規則を用いて, シナプス塑性力学をシミュレートし, 出力誤差を最小限に抑える。
関連論文リスト
- Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Control of synaptic plasticity in neural networks [0.0]
脳は非線形で高頻度のリカレントニューラルネットワーク(RNN)である
提案するフレームワークは,エラーフィードバックループシステムをシミュレートする新しいNNベースのアクタ批判手法を含む。
論文 参考訳(メタデータ) (2023-03-10T13:36:31Z) - NeuroCERIL: Robotic Imitation Learning via Hierarchical Cause-Effect
Reasoning in Programmable Attractor Neural Networks [2.0646127669654826]
本稿では,脳にインスパイアされた神経認知アーキテクチャであるNeuroCERILについて紹介する。
シミュレーションされたロボット模倣学習領域において,NeuroCERILは様々な手続き的スキルを習得できることを示す。
我々は、NeuroCERILは人間のような模倣学習の実行可能な神経モデルであると結論付けた。
論文 参考訳(メタデータ) (2022-11-11T19:56:11Z) - The least-control principle for learning at equilibrium [65.2998274413952]
我々は、平衡反復ニューラルネットワーク、深層平衡モデル、メタラーニングを学ぶための新しい原理を提案する。
私たちの結果は、脳がどのように学習するかを明らかにし、幅広い機械学習問題にアプローチする新しい方法を提供します。
論文 参考訳(メタデータ) (2022-07-04T11:27:08Z) - From Biological Synapses to Intelligent Robots [0.0]
ヘビアンシナプス学習は、機械学習とインテリジェンスのための機能的関連モデルとして議論されている。
適応的な学習と制御の可能性を、監督なしで先導する。
ここで収集された洞察は、インテリジェントなロボティクスとセンサーシステムの選択ソリューションとして、Hebbianモデルに向けられている。
論文 参考訳(メタデータ) (2022-02-25T12:39:22Z) - Learning by Active Forgetting for Neural Networks [36.47528616276579]
記憶と忘れのメカニズムは、人間の学習記憶システムにおいて、同じコインの2つの側面である。
現代の機械学習システムは、記憶を良くすることで、生涯にわたる学習能力を持つ機械を育むために取り組んできた。
本稿では,ニューラルネットワークを用いた能動的記憶機構による学習モデルを提案する。
論文 参考訳(メタデータ) (2021-11-21T14:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。