論文の概要: Improving the adaptive and continuous learning capabilities of artificial neural networks: Lessons from multi-neuromodulatory dynamics
- arxiv url: http://arxiv.org/abs/2501.06762v1
- Date: Sun, 12 Jan 2025 10:10:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:29:15.306227
- Title: Improving the adaptive and continuous learning capabilities of artificial neural networks: Lessons from multi-neuromodulatory dynamics
- Title(参考訳): ニューラルネットワークの適応的・連続的学習能力の向上:マルチニューロモジュレータダイナミクスからの教訓
- Authors: Jie Mei, Alejandro Rodriguez-Garcia, Daigo Takeuchi, Gabriel Wainstein, Nina Hubig, Yalda Mohsenzadeh, Srikanth Ramaswamy,
- Abstract要約: 生物学的生物は、動的環境に適応しながら知識を取得し、移動し、保持する。
本研究は,生物学習システムの基本的特徴である神経調節が,破滅的な忘れ込みなどの課題にどのように対処できるかを考察する。
マルチスケールの神経調節を統合することで,生物学習と人工システムとのギャップを埋めることを目指す。
- 参考スコア(独自算出の注目度): 43.35924697803789
- License:
- Abstract: Continuous, adaptive learning-the ability to adapt to the environment and improve performance-is a hallmark of both natural and artificial intelligence. Biological organisms excel in acquiring, transferring, and retaining knowledge while adapting to dynamic environments, making them a rich source of inspiration for artificial neural networks (ANNs). This study explores how neuromodulation, a fundamental feature of biological learning systems, can help address challenges such as catastrophic forgetting and enhance the robustness of ANNs in continuous learning scenarios. Driven by neuromodulators including dopamine (DA), acetylcholine (ACh), serotonin (5-HT) and noradrenaline (NA), neuromodulatory processes in the brain operate at multiple scales, facilitating dynamic responses to environmental changes through mechanisms ranging from local synaptic plasticity to global network-wide adaptability. Importantly, the relationship between neuromodulators, and their interplay in the modulation of sensory and cognitive processes are more complex than expected, demonstrating a "many-to-one" neuromodulator-to-task mapping. To inspire the design of novel neuromodulation-aware learning rules, we highlight (i) how multi-neuromodulatory interactions enrich single-neuromodulator-driven learning, (ii) the impact of neuromodulators at multiple spatial and temporal scales, and correspondingly, (iii) strategies to integrate neuromodulated learning into or approximate it in ANNs. To illustrate these principles, we present a case study to demonstrate how neuromodulation-inspired mechanisms, such as DA-driven reward processing and NA-based cognitive flexibility, can enhance ANN performance in a Go/No-Go task. By integrating multi-scale neuromodulation, we aim to bridge the gap between biological learning and artificial systems, paving the way for ANNs with greater flexibility, robustness, and adaptability.
- Abstract(参考訳): 継続的で適応的な学習 - 環境に適応し、パフォーマンスを向上させる能力は、自然と人工知能の両方の目印である。
生物学的生物は、動的環境に適応しながら知識の獲得、移動、保持に優れており、人工ニューラルネットワーク(ANN)のインスピレーションの豊富な源となっている。
本研究では, 生物学習システムの基本的特徴である神経調節が, 連続学習シナリオにおけるANNの強靭性向上や破滅的な忘れ込みといった課題への対処にどのように役立つかを検討する。
ドーパミン(DA)、アセチルコリン(ACh)、セロトニン(5-HT)、ノルアドレナリン(NA)などの神経調節物質によって駆動される脳の神経調節プロセスは、局所的なシナプス可塑性からグローバルなネットワーク全体の適応性までのメカニズムを通じて、環境変化に対する動的反応を促進する。
重要なことは、ニューロモジュレータと、感覚と認知過程の調節におけるそれらの相互作用は、予想以上に複雑であり、多くのニューロモジュレータ対タスクマッピングを示すことである。
ニューロモジュレーションを意識した新しい学習ルールの設計を促すために,我々は強調する。
(i)マルチニューロモジュレータ相互作用が単一ニューロモジュレータ駆動学習にどのように富むか。
二 複数の空間的・時間的スケールにおけるニューロモジュレータの影響、及びそれに対応するもの
三 神経変調学習をANNに組み込んだり、近似したりする戦略。
これらの原理を説明するために,我々は,DA駆動型報酬処理やNAベース認知柔軟性などの神経調節にインスパイアされたメカニズムが,Go/No-GoタスクにおけるANNのパフォーマンスを向上することを示すケーススタディを提案する。
マルチスケールの神経調節を統合することで,生物学習と人工システムとのギャップを埋めること,ANNの柔軟性,堅牢性,適応性を高めることを目指す。
関連論文リスト
- Brain-like Functional Organization within Large Language Models [58.93629121400745]
人間の脳は長い間人工知能(AI)の追求にインスピレーションを与えてきた
最近のニューロイメージング研究は、人工ニューラルネットワーク(ANN)の計算的表現と、人間の脳の刺激に対する神経反応との整合性の説得力のある証拠を提供する。
本研究では、人工ニューロンのサブグループと機能的脳ネットワーク(FBN)を直接結合することで、このギャップを埋める。
このフレームワークはANサブグループをFBNにリンクし、大きな言語モデル(LLM)内で脳に似た機能的組織を記述できる。
論文 参考訳(メタデータ) (2024-10-25T13:15:17Z) - Neuroplastic Expansion in Deep Reinforcement Learning [9.297543779239826]
本稿では,認知科学における皮質拡大に触発された新しいアプローチであるNeuroplastic Expansion(NE)を提案する。
NEは、ネットワークを小さな初期サイズからフル次元に動的に拡大することにより、トレーニングプロセス全体を通して学習性と適応性を維持する。
本手法は, 1) 電位勾配に基づく弾性ニューロン生成, (2) ネットワーク表現性を最適化するための休眠ニューロンプルーニング, (3) 経験的考察によるニューロン統合の3つの重要な要素で設計されている。
論文 参考訳(メタデータ) (2024-10-10T14:51:14Z) - Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Learning the Plasticity: Plasticity-Driven Learning Framework in Spiking
Neural Networks [9.25919593660244]
スパイクニューラルネットワーク(SNN)の新しいパラダイム
塑性駆動学習フレームワーク(PDLF)
PDLFは機能的およびシナプス依存的塑性の概念を再定義する。
論文 参考訳(メタデータ) (2023-08-23T11:11:31Z) - Learning to Act through Evolution of Neural Diversity in Random Neural
Networks [9.387749254963595]
ほとんどの人工ニューラルネットワーク(ANN)では、神経計算は通常すべてのニューロン間で共有される活性化関数に抽象化される。
本稿では,複雑な計算を行うことができる多様なニューロンの集合を実現するために,神経中心パラメータの最適化を提案する。
論文 参考訳(メタデータ) (2023-05-25T11:33:04Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Developmental Plasticity-inspired Adaptive Pruning for Deep Spiking and Artificial Neural Networks [11.730984231143108]
発達的可塑性は、継続的な学習中に脳の構造を形成する際に顕著な役割を果たす。
ディープ人工知能ニューラルネットワーク(ANN)とスパイクニューラルネットワーク(SNN)の既存のネットワーク圧縮方法は、脳の発達する可塑性機構からほとんどインスピレーションを受けない。
本稿では, 樹状突起, シナプス, ニューロンの適応的発達的プルーニングからインスピレーションを得て, 塑性刺激による適応的プルーニング(DPAP)法を提案する。
論文 参考訳(メタデータ) (2022-11-23T05:26:51Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。