論文の概要: Dopamine-driven synaptic credit assignment in neural networks
- arxiv url: http://arxiv.org/abs/2510.22178v1
- Date: Sat, 25 Oct 2025 06:17:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.901276
- Title: Dopamine-driven synaptic credit assignment in neural networks
- Title(参考訳): ニューラルネットにおけるドーパミン駆動型シナプスクレジット割り当て
- Authors: Saranraj Nambusubramaniyan, Shervin Safavi, Raja Guru, Andreas Knoblauch,
- Abstract要約: シナプスクレジット割り当て問題(CAP)を解決する
ドーパミンは、オプティマへの重みの更新を利用する重み摂動学習のために開発された。
XORタスクのための多層パーセプトロンのトレーニングとカオス時系列予測のためのリカレントニューラルネットワークのために、Dopamineをテストした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Solving the synaptic Credit Assignment Problem(CAP) is central to learning in both biological and artificial neural systems. Finding an optimal solution for synaptic CAP means setting the synaptic weights that assign credit to each neuron for influencing the final output and behavior of neural networks or animals. Gradient-based methods solve this problem in artificial neural networks using back-propagation, however, not in the most efficient way. For instance, back-propagation requires a chain of top-down gradient computations. This leads to an expensive optimization process in terms of computing power and memory linked with well-known weight transport and update locking problems. To address these shortcomings, we take a NeuroAI approach and draw inspiration from neural Reinforcement Learning to develop a derivative-free optimizer for training neural networks, Dopamine. Dopamine is developed for Weight Perturbation (WP) learning that exploits stochastic updating of weights towards optima. It achieves this by minimizing the regret, a form of Reward Prediction Error (RPE) between the expected outcome from the perturbed model and the actual outcome from the unperturbed model. We use this RPE to adjust the learning rate in the network (i.e., creating an adaptive learning rate strategy, similar to the role of dopamine in the brain). We tested the Dopamine optimizer for training multi-layered perceptrons for XOR tasks, and recurrent neural networks for chaotic time series forecasting. Dopamine-trained models demonstrate accelerated convergence and outperform standard WP, and give comparable performance to gradient-based algorithms, while consuming significantly less computation and memory. Overall, the Dopamine optimizer not only finds robust solutions and comparable performance to the state-of-the-art Machine Learning optimizers but is also neurobiologically more plausible.
- Abstract(参考訳): シナプスクレジット割り当て問題(CAP)の解決は、生物学的および人工的なニューラルシステムにおける学習の中心である。
シナプスCAPの最適解を見つけることは、ニューラルネットワークや動物の最終的な出力と行動に影響を与えるために各ニューロンにクレジットを割り当てるシナプス重みを設定することを意味する。
勾配に基づく手法は、バックプロパゲーションを用いて人工ニューラルネットワークでこの問題を解決するが、最も効率的な方法ではない。
例えば、バックプロパゲーションはトップダウン勾配計算の連鎖を必要とする。
これにより、よく知られた重量輸送と更新ロック問題に結びついた計算能力とメモリの面で、高価な最適化プロセスがもたらされる。
これらの欠点に対処するため、我々はNeuroAIアプローチを採用し、神経強化学習からインスピレーションを得て、ニューラルネットワークのトレーニングのためのデリバティブフリーオプティマイザであるDopamineを開発した。
ドーパミンは、オプティマへの重みの確率的更新を利用するウェイト摂動(WP)学習のために開発された。
これは、摂動モデルからの期待結果と摂動モデルからの実際の結果との間の、後悔の最小化、逆予測誤差(Reward Prediction Error: RPE)の形式である。
我々は、このRPEを用いてネットワーク内の学習率を調整する(つまり、脳におけるドーパミンの役割に似た適応的な学習率戦略を作成する)。
我々は、XORタスクのための多層パーセプトロンのトレーニングのためのドーパミンオプティマイザと、カオス時系列予測のためのリカレントニューラルネットワークを試験した。
ドーパミンを訓練したモデルでは、収束の加速と標準WPよりも優れた性能を示し、グラデーションベースのアルゴリズムに匹敵する性能を示しながら、計算とメモリを著しく少なくする。
全体として、Dopamineオプティマイザは堅牢なソリューションと最先端の機械学習オプティマイザに匹敵するパフォーマンスを見出すだけでなく、神経生物学的にもより妥当である。
関連論文リスト
- Randomized Forward Mode Gradient for Spiking Neural Networks in Scientific Machine Learning [4.178826560825283]
スパイキングニューラルネットワーク(SNN)は、ディープニューラルネットワークの階層的学習能力とスパイクベースの計算のエネルギー効率を組み合わせた、機械学習における有望なアプローチである。
SNNの伝統的なエンドツーエンドトレーニングは、しばしばバックプロパゲーションに基づいており、重み更新はチェーンルールによって計算された勾配から導かれる。
この手法は, 生体適合性に限界があり, ニューロモルフィックハードウェアの非効率性のため, 課題に遭遇する。
本研究では,SNNの代替トレーニング手法を導入する。後方伝搬の代わりに,前方モード内での重量摂動手法を活用する。
論文 参考訳(メタデータ) (2024-11-11T15:20:54Z) - Growing Deep Neural Network Considering with Similarity between Neurons [4.32776344138537]
我々は、訓練段階におけるコンパクトモデルにおいて、ニューロン数を漸進的に増加させる新しいアプローチを探求する。
本稿では,ニューロン類似性分布に基づく制約を導入することにより,特徴抽出バイアスと神経冗長性を低減する手法を提案する。
CIFAR-10とCIFAR-100データセットの結果、精度が向上した。
論文 参考訳(メタデータ) (2024-08-23T11:16:37Z) - Fast gradient-free activation maximization for neurons in spiking neural networks [5.805438104063613]
このようなループのための効率的な設計のフレームワークを提案する。
トレーニング中の人工ニューロンの最適刺激の変化を追跡する。
この洗練された最適刺激の形成は、分類精度の増大と関連している。
論文 参考訳(メタデータ) (2023-12-28T18:30:13Z) - Gradual Optimization Learning for Conformational Energy Minimization [69.36925478047682]
ニューラルネットワークによるエネルギー最小化のためのGradual Optimization Learning Framework(GOLF)は、必要な追加データを大幅に削減する。
GOLFでトレーニングしたニューラルネットワークは,種々の薬物様分子のベンチマークにおいて,オラクルと同等に動作することを示す。
論文 参考訳(メタデータ) (2023-11-05T11:48:08Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Biologically-inspired neuronal adaptation improves learning in neural
networks [0.7734726150561086]
人間は今でも、多くのタスクで人工知能よりも優れています。
私たちは、機械学習アルゴリズムを改善するために、脳からインスピレーションを受けています。
我々はMNISTとCIFAR-10で訓練された多層パーセプトロンと畳み込みニューラルネットワークに適応する。
論文 参考訳(メタデータ) (2022-04-08T16:16:02Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。