論文の概要: Learning the Plasticity: Plasticity-Driven Learning Framework in Spiking
Neural Networks
- arxiv url: http://arxiv.org/abs/2308.12063v2
- Date: Thu, 1 Feb 2024 13:28:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 19:27:35.344187
- Title: Learning the Plasticity: Plasticity-Driven Learning Framework in Spiking
Neural Networks
- Title(参考訳): プラスチックを学ぶ: スパイクニューラルネットワークにおける塑性駆動学習フレームワーク
- Authors: Guobin Shen, Dongcheng Zhao, Yiting Dong, Yang Li, Feifei Zhao and Yi
Zeng
- Abstract要約: スパイクニューラルネットワーク(SNN)の新しいパラダイム
塑性駆動学習フレームワーク(PDLF)
PDLFは機能的およびシナプス依存的塑性の概念を再定義する。
- 参考スコア(独自算出の注目度): 9.25919593660244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The evolution of the human brain has led to the development of complex
synaptic plasticity, enabling dynamic adaptation to a constantly evolving
world. This progress inspires our exploration into a new paradigm for Spiking
Neural Networks (SNNs): a Plasticity-Driven Learning Framework (PDLF). This
paradigm diverges from traditional neural network models that primarily focus
on direct training of synaptic weights, leading to static connections that
limit adaptability in dynamic environments. Instead, our approach delves into
the heart of synaptic behavior, prioritizing the learning of plasticity rules
themselves. This shift in focus from weight adjustment to mastering the
intricacies of synaptic change offers a more flexible and dynamic pathway for
neural networks to evolve and adapt. Our PDLF does not merely adapt existing
concepts of functional and Presynaptic-Dependent Plasticity but redefines them,
aligning closely with the dynamic and adaptive nature of biological learning.
This reorientation enhances key cognitive abilities in artificial intelligence
systems, such as working memory and multitasking capabilities, and demonstrates
superior adaptability in complex, real-world scenarios. Moreover, our framework
sheds light on the intricate relationships between various forms of plasticity
and cognitive functions, thereby contributing to a deeper understanding of the
brain's learning mechanisms. Integrating this groundbreaking plasticity-centric
approach in SNNs marks a significant advancement in the fusion of neuroscience
and artificial intelligence. It paves the way for developing AI systems that
not only learn but also adapt in an ever-changing world, much like the human
brain.
- Abstract(参考訳): 人間の脳の進化は複雑なシナプス塑性を発展させ、絶えず進化する世界への動的適応を可能にした。
この進歩は、spyking neural networks(snns)の新たなパラダイムである可塑性学習フレームワーク(pdlf)の探求を刺激します。
このパラダイムは、主にシナプス重みの直接トレーニングに焦点を当てた従来のニューラルネットワークモデルと異なるため、動的環境での適応性を制限する静的接続に繋がる。
代わりに、私たちのアプローチはシナプス的行動の心臓に分解し、可塑性規則自体の学習を優先します。
重みの調整からシナプスの変化の複雑さの習得への焦点のシフトは、ニューラルネットワークの進化と適応をより柔軟でダイナミックな経路を提供する。
我々のPDLFは、機能的・シナプス的依存的塑性という既存の概念に適応するだけでなく、それらを再定義し、生物学的学習の動的で適応的な性質と密接に一致させる。
この方向転換は、ワーキングメモリやマルチタスク機能など、人工知能システムにおける重要な認知能力を強化し、複雑な現実のシナリオにおいて優れた適応性を示す。
さらに, この枠組みは, 様々な形態の可塑性と認知機能との複雑な関係に光を当て, 脳の学習機構のより深い理解に寄与する。
SNNにこの画期的な塑性中心のアプローチを統合することは、神経科学と人工知能の融合における大きな進歩である。
それは、学習するだけでなく、人間の脳のように変化し続ける世界に適応するAIシステムを開発するための道を開く。
関連論文リスト
- Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - A Neuro-mimetic Realization of the Common Model of Cognition via Hebbian
Learning and Free Energy Minimization [55.11642177631929]
大規模なニューラル生成モデルは、意味的に豊富なテキストのパスを合成したり、複雑な画像を生成することができる。
我々はコモン・モデル・オブ・コグニティブ・ニューラル・ジェネレーティブ・システムについて論じる。
論文 参考訳(メタデータ) (2023-10-14T23:28:48Z) - Incorporating Neuro-Inspired Adaptability for Continual Learning in
Artificial Intelligence [59.11038175596807]
継続的な学習は、現実世界に強い適応性を持つ人工知能を強化することを目的としている。
既存の進歩は主に、破滅的な忘れを克服するために記憶安定性を維持することに焦点を当てている。
本稿では,学習の可塑性を改善するため,パラメータ分布の古い記憶を適切に減衰させる汎用的手法を提案する。
論文 参考訳(メタデータ) (2023-08-29T02:43:58Z) - Contrastive-Signal-Dependent Plasticity: Forward-Forward Learning of
Spiking Neural Systems [73.18020682258606]
我々は、ニューロンの個々の層が並列に機能する、スパイキングニューロンユニットからなる神経模倣アーキテクチャを開発する。
コントラスト信号依存塑性(CSDP)と呼ばれるイベントベース前方学習の一般化を提案する。
いくつかのパターンデータセットに対する実験結果から,CSDPプロセスは分類と再構成の両方が可能な動的再帰スパイクネットワークのトレーニングに有効であることが示された。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - World Models and Predictive Coding for Cognitive and Developmental
Robotics: Frontiers and Challenges [51.92834011423463]
我々は世界モデルと予測符号化の2つの概念に焦点を当てる。
神経科学において、予測符号化は、脳がその入力を継続的に予測し、その環境における自身のダイナミクスと制御行動のモデル化に適応するように提案する。
論文 参考訳(メタデータ) (2023-01-14T06:38:14Z) - Developmental Plasticity-inspired Adaptive Pruning for Deep Spiking and
Artificial Neural Networks [7.000088703181348]
発達的可塑性は、継続的な学習中に脳の構造を形成する上で重要な役割を担っている。
ディープ人工知能ニューラルネットワーク(ANN)とスパイクニューラルネットワーク(SNN)の既存のネットワーク圧縮方法は、脳の発達する可塑性機構からほとんどインスピレーションを受けない。
本稿では, 樹状突起, シナプス, ニューロンの適応的発達的プルーニングからインスピレーションを得て, 塑性刺激による適応的プルーニング(DPAP)法を提案する。
論文 参考訳(メタデータ) (2022-11-23T05:26:51Z) - Learning to acquire novel cognitive tasks with evolution, plasticity and
meta-meta-learning [3.8073142980733]
メタラーニングでは、ネットワークは外部アルゴリズムでトレーニングされ、タスクの新しいインスタンスごとに予測不可能な情報を取得し、保存し、活用する必要があるタスクを学習する。
ここでは、神経科学モデリングフレームワークに基づく単純なメタ学習タスクのセットで、プラスティック接続を備えたニューラルネットワークを進化させます。
進化したネットワークは、進化した神経組織と塑性構造を自発的に操作することで、トレーニング中に見ることのない、新しい単純な認知タスクを自動的に取得することができる。
論文 参考訳(メタデータ) (2021-12-16T03:18:01Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - A brain basis of dynamical intelligence for AI and computational
neuroscience [0.0]
より多くの脳のような能力は、新しい理論、モデル、および人工学習システムを設計する方法を要求するかもしれない。
本稿は,第6回US/NIH BRAIN Initiative Investigators Meetingにおける動的神経科学と機械学習に関するシンポジウムに触発されたものです。
論文 参考訳(メタデータ) (2021-05-15T19:49:32Z) - Backpropamine: training self-modifying neural networks with
differentiable neuromodulated plasticity [14.19992298135814]
このような神経修飾塑性を持つ人工ニューラルネットワークは、勾配降下でトレーニングできることを初めて示す。
神経変調塑性は、強化学習と教師あり学習の両方においてニューラルネットワークの性能を向上させることを示す。
論文 参考訳(メタデータ) (2020-02-24T23:19:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。