論文の概要: Metaplasticity: Unifying Learning and Homeostatic Plasticity in Spiking
Neural Networks
- arxiv url: http://arxiv.org/abs/2308.12063v1
- Date: Wed, 23 Aug 2023 11:11:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 14:27:42.880237
- Title: Metaplasticity: Unifying Learning and Homeostatic Plasticity in Spiking
Neural Networks
- Title(参考訳): メタ塑性:スパイクニューラルネットワークにおける学習とホメオスタティックな塑性の統合
- Authors: Guobin Shen, Dongcheng Zhao, Yiting Dong, Yang Li, Feifei Zhao and Yi
Zeng
- Abstract要約: 塑性規則の学習を含む高度なメカニズムであるメタ可塑性の応用を紹介する。
人工知能システムにおける適応性と認知能力の向上を実証する。
- 参考スコア(独自算出の注目度): 9.25919593660244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The natural evolution of the human brain has given rise to multiple forms of
synaptic plasticity, allowing for dynamic changes to adapt to an ever-evolving
world. The evolutionary development of synaptic plasticity has spurred our
exploration of biologically plausible optimization and learning algorithms for
Spiking Neural Networks (SNNs). Present neural networks rely on the direct
training of synaptic weights, which ultimately leads to fixed connections and
hampers their ability to adapt to dynamic real-world environments. To address
this challenge, we introduce the application of metaplasticity -- a
sophisticated mechanism involving the learning of plasticity rules rather than
direct modifications of synaptic weights. Metaplasticity dynamically combines
different plasticity rules, effectively enhancing working memory, multitask
generalization, and adaptability while uncovering potential associations
between various forms of plasticity and cognitive functions. By integrating
metaplasticity into SNNs, we demonstrate the enhanced adaptability and
cognitive capabilities within artificial intelligence systems. This
computational perspective unveils the learning mechanisms of the brain, marking
a significant step in the profound intersection of neuroscience and artificial
intelligence.
- Abstract(参考訳): 人間の脳の自然な進化は複数のシナプス可塑性を生じさせ、進化し続ける世界への動的変化を可能にする。
シナプス可塑性の進化的発展は、スパイクニューラルネットワーク(snn)のための生物学的に妥当な最適化と学習アルゴリズムの探求を促した。
現在のニューラルネットワークはシナプス重みの直接トレーニングに依存しており、最終的に固定接続につながり、動的実環境に適応する能力を妨げる。
この課題に対処するために,我々は,シンシナプス重みの直接的修正ではなく,塑性規則の学習を伴う洗練されたメカニズムであるメタ塑性の応用を紹介する。
メタ可塑性は異なる可塑性規則を動的に組み合わせ、作業記憶、マルチタスク一般化、適応性を効果的に向上させ、様々な可塑性と認知機能の間の潜在的な関連を明らかにする。
メタ塑性をSNNに統合することにより、人工知能システムにおける適応性と認知能力の向上を実証する。
この計算的視点は、脳の学習メカニズムを明らかにし、神経科学と人工知能の深い交差において重要なステップとなる。
関連論文リスト
- Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - A Neuro-mimetic Realization of the Common Model of Cognition via Hebbian
Learning and Free Energy Minimization [55.11642177631929]
大規模なニューラル生成モデルは、意味的に豊富なテキストのパスを合成したり、複雑な画像を生成することができる。
我々はコモン・モデル・オブ・コグニティブ・ニューラル・ジェネレーティブ・システムについて論じる。
論文 参考訳(メタデータ) (2023-10-14T23:28:48Z) - Incorporating Neuro-Inspired Adaptability for Continual Learning in
Artificial Intelligence [59.11038175596807]
継続的な学習は、現実世界に強い適応性を持つ人工知能を強化することを目的としている。
既存の進歩は主に、破滅的な忘れを克服するために記憶安定性を維持することに焦点を当てている。
本稿では,学習の可塑性を改善するため,パラメータ分布の古い記憶を適切に減衰させる汎用的手法を提案する。
論文 参考訳(メタデータ) (2023-08-29T02:43:58Z) - Contrastive-Signal-Dependent Plasticity: Forward-Forward Learning of
Spiking Neural Systems [73.18020682258606]
我々は、ニューロンの個々の層が並列に機能する、スパイキングニューロンユニットからなる神経模倣アーキテクチャを開発する。
コントラスト信号依存塑性(CSDP)と呼ばれるイベントベース前方学習の一般化を提案する。
いくつかのパターンデータセットに対する実験結果から,CSDPプロセスは分類と再構成の両方が可能な動的再帰スパイクネットワークのトレーニングに有効であることが示された。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - World Models and Predictive Coding for Cognitive and Developmental
Robotics: Frontiers and Challenges [51.92834011423463]
我々は世界モデルと予測符号化の2つの概念に焦点を当てる。
神経科学において、予測符号化は、脳がその入力を継続的に予測し、その環境における自身のダイナミクスと制御行動のモデル化に適応するように提案する。
論文 参考訳(メタデータ) (2023-01-14T06:38:14Z) - Developmental Plasticity-inspired Adaptive Pruning for Deep Spiking and
Artificial Neural Networks [7.000088703181348]
発達的可塑性は、継続的な学習中に脳の構造を形成する上で重要な役割を担っている。
ディープ人工知能ニューラルネットワーク(ANN)とスパイクニューラルネットワーク(SNN)の既存のネットワーク圧縮方法は、脳の発達する可塑性機構からほとんどインスピレーションを受けない。
本稿では, 樹状突起, シナプス, ニューロンの適応的発達的プルーニングからインスピレーションを得て, 塑性刺激による適応的プルーニング(DPAP)法を提案する。
論文 参考訳(メタデータ) (2022-11-23T05:26:51Z) - Learning to acquire novel cognitive tasks with evolution, plasticity and
meta-meta-learning [3.8073142980733]
メタラーニングでは、ネットワークは外部アルゴリズムでトレーニングされ、タスクの新しいインスタンスごとに予測不可能な情報を取得し、保存し、活用する必要があるタスクを学習する。
ここでは、神経科学モデリングフレームワークに基づく単純なメタ学習タスクのセットで、プラスティック接続を備えたニューラルネットワークを進化させます。
進化したネットワークは、進化した神経組織と塑性構造を自発的に操作することで、トレーニング中に見ることのない、新しい単純な認知タスクを自動的に取得することができる。
論文 参考訳(メタデータ) (2021-12-16T03:18:01Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - A brain basis of dynamical intelligence for AI and computational
neuroscience [0.0]
より多くの脳のような能力は、新しい理論、モデル、および人工学習システムを設計する方法を要求するかもしれない。
本稿は,第6回US/NIH BRAIN Initiative Investigators Meetingにおける動的神経科学と機械学習に関するシンポジウムに触発されたものです。
論文 参考訳(メタデータ) (2021-05-15T19:49:32Z) - Backpropamine: training self-modifying neural networks with
differentiable neuromodulated plasticity [14.19992298135814]
このような神経修飾塑性を持つ人工ニューラルネットワークは、勾配降下でトレーニングできることを初めて示す。
神経変調塑性は、強化学習と教師あり学習の両方においてニューラルネットワークの性能を向上させることを示す。
論文 参考訳(メタデータ) (2020-02-24T23:19:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。