論文の概要: Metaplasticity: Unifying Learning and Homeostatic Plasticity in Spiking
Neural Networks
- arxiv url: http://arxiv.org/abs/2308.12063v1
- Date: Wed, 23 Aug 2023 11:11:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 14:27:42.880237
- Title: Metaplasticity: Unifying Learning and Homeostatic Plasticity in Spiking
Neural Networks
- Title(参考訳): メタ塑性:スパイクニューラルネットワークにおける学習とホメオスタティックな塑性の統合
- Authors: Guobin Shen, Dongcheng Zhao, Yiting Dong, Yang Li, Feifei Zhao and Yi
Zeng
- Abstract要約: 塑性規則の学習を含む高度なメカニズムであるメタ可塑性の応用を紹介する。
人工知能システムにおける適応性と認知能力の向上を実証する。
- 参考スコア(独自算出の注目度): 9.25919593660244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The natural evolution of the human brain has given rise to multiple forms of
synaptic plasticity, allowing for dynamic changes to adapt to an ever-evolving
world. The evolutionary development of synaptic plasticity has spurred our
exploration of biologically plausible optimization and learning algorithms for
Spiking Neural Networks (SNNs). Present neural networks rely on the direct
training of synaptic weights, which ultimately leads to fixed connections and
hampers their ability to adapt to dynamic real-world environments. To address
this challenge, we introduce the application of metaplasticity -- a
sophisticated mechanism involving the learning of plasticity rules rather than
direct modifications of synaptic weights. Metaplasticity dynamically combines
different plasticity rules, effectively enhancing working memory, multitask
generalization, and adaptability while uncovering potential associations
between various forms of plasticity and cognitive functions. By integrating
metaplasticity into SNNs, we demonstrate the enhanced adaptability and
cognitive capabilities within artificial intelligence systems. This
computational perspective unveils the learning mechanisms of the brain, marking
a significant step in the profound intersection of neuroscience and artificial
intelligence.
- Abstract(参考訳): 人間の脳の自然な進化は複数のシナプス可塑性を生じさせ、進化し続ける世界への動的変化を可能にする。
シナプス可塑性の進化的発展は、スパイクニューラルネットワーク(snn)のための生物学的に妥当な最適化と学習アルゴリズムの探求を促した。
現在のニューラルネットワークはシナプス重みの直接トレーニングに依存しており、最終的に固定接続につながり、動的実環境に適応する能力を妨げる。
この課題に対処するために,我々は,シンシナプス重みの直接的修正ではなく,塑性規則の学習を伴う洗練されたメカニズムであるメタ塑性の応用を紹介する。
メタ可塑性は異なる可塑性規則を動的に組み合わせ、作業記憶、マルチタスク一般化、適応性を効果的に向上させ、様々な可塑性と認知機能の間の潜在的な関連を明らかにする。
メタ塑性をSNNに統合することにより、人工知能システムにおける適応性と認知能力の向上を実証する。
この計算的視点は、脳の学習メカニズムを明らかにし、神経科学と人工知能の深い交差において重要なステップとなる。
関連論文リスト
- Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Neuroplastic Expansion in Deep Reinforcement Learning [9.297543779239826]
本稿では,認知科学における皮質拡大に触発された新しいアプローチであるNeuroplastic Expansion(NE)を提案する。
NEは、ネットワークを小さな初期サイズからフル次元に動的に拡大することにより、トレーニングプロセス全体を通して学習性と適応性を維持する。
本手法は, 1) 電位勾配に基づく弾性ニューロン生成, (2) ネットワーク表現性を最適化するための休眠ニューロンプルーニング, (3) 経験的考察によるニューロン統合の3つの重要な要素で設計されている。
論文 参考訳(メタデータ) (2024-10-10T14:51:14Z) - Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Evolving Self-Assembling Neural Networks: From Spontaneous Activity to Experience-Dependent Learning [7.479827648985631]
本稿では, 自己組織型ニューラルネットワークを, 活動と報酬に依存した方法でシナプス的, 構造的可塑性のクラスとして提案する。
その結果、ランダムに接続されたネットワークや空きネットワークから、異なる制御タスクの経験からモデルが学習できることが示されている。
論文 参考訳(メタデータ) (2024-06-14T07:36:21Z) - Theories of synaptic memory consolidation and intelligent plasticity for continual learning [7.573586022424398]
シナプスの可塑性機構は 内部状態を維持し 進化させなければならない
可塑性アルゴリズムは 内部の状態を利用して 個々のシナプスで 可塑性をインテリジェントに制御する必要がある
論文 参考訳(メタデータ) (2024-05-27T08:13:39Z) - Incorporating Neuro-Inspired Adaptability for Continual Learning in
Artificial Intelligence [59.11038175596807]
継続的な学習は、現実世界に強い適応性を持つ人工知能を強化することを目的としている。
既存の進歩は主に、破滅的な忘れを克服するために記憶安定性を維持することに焦点を当てている。
本稿では,学習の可塑性を改善するため,パラメータ分布の古い記憶を適切に減衰させる汎用的手法を提案する。
論文 参考訳(メタデータ) (2023-08-29T02:43:58Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Developmental Plasticity-inspired Adaptive Pruning for Deep Spiking and Artificial Neural Networks [11.730984231143108]
発達的可塑性は、継続的な学習中に脳の構造を形成する際に顕著な役割を果たす。
ディープ人工知能ニューラルネットワーク(ANN)とスパイクニューラルネットワーク(SNN)の既存のネットワーク圧縮方法は、脳の発達する可塑性機構からほとんどインスピレーションを受けない。
本稿では, 樹状突起, シナプス, ニューロンの適応的発達的プルーニングからインスピレーションを得て, 塑性刺激による適応的プルーニング(DPAP)法を提案する。
論文 参考訳(メタデータ) (2022-11-23T05:26:51Z) - Learning to acquire novel cognitive tasks with evolution, plasticity and
meta-meta-learning [3.8073142980733]
メタラーニングでは、ネットワークは外部アルゴリズムでトレーニングされ、タスクの新しいインスタンスごとに予測不可能な情報を取得し、保存し、活用する必要があるタスクを学習する。
ここでは、神経科学モデリングフレームワークに基づく単純なメタ学習タスクのセットで、プラスティック接続を備えたニューラルネットワークを進化させます。
進化したネットワークは、進化した神経組織と塑性構造を自発的に操作することで、トレーニング中に見ることのない、新しい単純な認知タスクを自動的に取得することができる。
論文 参考訳(メタデータ) (2021-12-16T03:18:01Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。