論文の概要: Backpropamine: training self-modifying neural networks with
differentiable neuromodulated plasticity
- arxiv url: http://arxiv.org/abs/2002.10585v1
- Date: Mon, 24 Feb 2020 23:19:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 03:30:32.700755
- Title: Backpropamine: training self-modifying neural networks with
differentiable neuromodulated plasticity
- Title(参考訳): バックプロパミン:神経修飾可塑性の異なる自己修飾ニューラルネットワークの訓練
- Authors: Thomas Miconi and Aditya Rawal and Jeff Clune and Kenneth O. Stanley
- Abstract要約: このような神経修飾塑性を持つ人工ニューラルネットワークは、勾配降下でトレーニングできることを初めて示す。
神経変調塑性は、強化学習と教師あり学習の両方においてニューラルネットワークの性能を向上させることを示す。
- 参考スコア(独自算出の注目度): 14.19992298135814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The impressive lifelong learning in animal brains is primarily enabled by
plastic changes in synaptic connectivity. Importantly, these changes are not
passive, but are actively controlled by neuromodulation, which is itself under
the control of the brain. The resulting self-modifying abilities of the brain
play an important role in learning and adaptation, and are a major basis for
biological reinforcement learning. Here we show for the first time that
artificial neural networks with such neuromodulated plasticity can be trained
with gradient descent. Extending previous work on differentiable Hebbian
plasticity, we propose a differentiable formulation for the neuromodulation of
plasticity. We show that neuromodulated plasticity improves the performance of
neural networks on both reinforcement learning and supervised learning tasks.
In one task, neuromodulated plastic LSTMs with millions of parameters
outperform standard LSTMs on a benchmark language modeling task (controlling
for the number of parameters). We conclude that differentiable neuromodulation
of plasticity offers a powerful new framework for training neural networks.
- Abstract(参考訳): 動物の脳における生涯学習は、主にシナプス接続の塑性変化によって実現される。
これらの変化は受動的ではなく、脳の制御下にある神経調節によって積極的に制御される。
結果として生じる脳の自己修飾能力は、学習と適応において重要な役割を果たし、生物学的強化学習の主要な基盤となっている。
ここでは,このような神経修飾可塑性を有するニューラルネットワークを勾配降下で訓練できることを初めて示す。
可塑性の神経調節に関する従来の研究を延長し,可塑性の神経調節に関する微分可能な定式化を提案する。
神経調節可塑性は強化学習と教師付き学習タスクの両方においてニューラルネットワークの性能を向上させる。
あるタスクでは、数百万のパラメータを持つニューロ変調プラスチックLSTMが、ベンチマーク言語モデリングタスク(パラメータ数を制御する)で標準LSTMより優れている。
我々は、可塑性の微分可能なニューロモジュレーションは、ニューラルネットワークをトレーニングするための強力な新しい枠組みを提供すると結論づける。
関連論文リスト
- Brain-like Functional Organization within Large Language Models [58.93629121400745]
人間の脳は長い間人工知能(AI)の追求にインスピレーションを与えてきた
最近のニューロイメージング研究は、人工ニューラルネットワーク(ANN)の計算的表現と、人間の脳の刺激に対する神経反応との整合性の説得力のある証拠を提供する。
本研究では、人工ニューロンのサブグループと機能的脳ネットワーク(FBN)を直接結合することで、このギャップを埋める。
このフレームワークはANサブグループをFBNにリンクし、大きな言語モデル(LLM)内で脳に似た機能的組織を記述できる。
論文 参考訳(メタデータ) (2024-10-25T13:15:17Z) - Neuroplastic Expansion in Deep Reinforcement Learning [9.297543779239826]
本稿では,認知科学における皮質拡大に触発された新しいアプローチであるNeuroplastic Expansion(NE)を提案する。
NEは、ネットワークを小さな初期サイズからフル次元に動的に拡大することにより、トレーニングプロセス全体を通して学習性と適応性を維持する。
本手法は, 1) 電位勾配に基づく弾性ニューロン生成, (2) ネットワーク表現性を最適化するための休眠ニューロンプルーニング, (3) 経験的考察によるニューロン統合の3つの重要な要素で設計されている。
論文 参考訳(メタデータ) (2024-10-10T14:51:14Z) - Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Learning with Chemical versus Electrical Synapses -- Does it Make a
Difference? [61.85704286298537]
バイオインスパイアされたニューラルネットワークは、ニューラルネットワークの理解を深め、AIシステムの最先端を改善する可能性がある。
我々は,光リアルな自律走行シミュレータを用いて自律車線維持実験を行い,その性能を種々の条件下で評価する。
論文 参考訳(メタデータ) (2023-11-21T13:07:20Z) - Control of synaptic plasticity via the fusion of reinforcement learning
and unsupervised learning in neural networks [0.0]
認知神経科学では、シナプスの可塑性が我々の驚くべき学習能力に不可欠な役割を担っていると広く受け入れられている。
このインスピレーションにより、強化学習と教師なし学習の融合により、新しい学習規則が提案される。
提案した計算モデルでは,非線形最適制御理論を誤差フィードバックループ系に類似させる。
論文 参考訳(メタデータ) (2023-03-26T12:18:03Z) - Hebbian and Gradient-based Plasticity Enables Robust Memory and Rapid
Learning in RNNs [13.250455334302288]
シナプスの可塑性は記憶の形成と学習において重要な役割を担っているという証拠がある。
リカレントニューラルネットワークに塑性規則を付与し、進行中の経験に応じてパラメータを適応できるようにします。
本モデルでは, 逐次的, 連想的メモリタスクにおける有望な結果を示し, 記憶を堅牢に形成, 維持する能力を示す。
論文 参考訳(メタデータ) (2023-02-07T03:42:42Z) - SpikePropamine: Differentiable Plasticity in Spiking Neural Networks [0.0]
スパイキングニューラルネットワーク(SNN)におけるシナプス可塑性と神経調節シナプス可塑性のダイナミクスを学習するための枠組みを導入する。
異なる可塑性で強化されたSNNは、時間的学習課題の集合を解決するのに十分であることを示す。
これらのネットワークは、高次元のロボット学習タスクで移動を生成できることも示されている。
論文 参考訳(メタデータ) (2021-06-04T19:29:07Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Adaptive Reinforcement Learning through Evolving Self-Modifying Neural
Networks [0.0]
強化学習(RL)の現在の手法は、特定の時間間隔で反射した後にのみ新しい相互作用に適応する。
最近の研究は、バックプロパゲーションを用いて訓練された単純なRLタスクの性能を向上させるために、ニューラルネットワークに神経修飾塑性を付与することでこの問題に対処している。
ここでは,四足歩行におけるメタラーニングの課題について検討する。
その結果、自己修飾プラスチックネットワークを用いて進化したエージェントは、複雑なメタ学習タスクに適応し、グラデーションを使って更新された同じネットワークよりも優れていることが示される。
論文 参考訳(メタデータ) (2020-05-22T02:24:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。