論文の概要: Meta-learning three-factor plasticity rules for structured credit assignment with sparse feedback
- arxiv url: http://arxiv.org/abs/2512.09366v1
- Date: Wed, 10 Dec 2025 06:57:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.423883
- Title: Meta-learning three-factor plasticity rules for structured credit assignment with sparse feedback
- Title(参考訳): スパースフィードバックによる構造的信用割当のためのメタラーニング3要素可塑性規則
- Authors: Dimitra Maoutsa,
- Abstract要約: スパースフィードバックを訓練したリカレントネットワークにおける構造化クレジット代入の局所的な学習ルールを発見するメタラーニングフレームワークを提案する。
結果として得られる3要素学習ルールは、ローカル情報と遅延報酬のみを使用して、長期のクレジット割り当てを可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Biological neural networks learn complex behaviors from sparse, delayed feedback using local synaptic plasticity, yet the mechanisms enabling structured credit assignment remain elusive. In contrast, artificial recurrent networks solving similar tasks typically rely on biologically implausible global learning rules or hand-crafted local updates. The space of local plasticity rules capable of supporting learning from delayed reinforcement remains largely unexplored. Here, we present a meta-learning framework that discovers local learning rules for structured credit assignment in recurrent networks trained with sparse feedback. Our approach interleaves local neo-Hebbian-like updates during task execution with an outer loop that optimizes plasticity parameters via \textbf{tangent-propagation through learning}. The resulting three-factor learning rules enable long-timescale credit assignment using only local information and delayed rewards, offering new insights into biologically grounded mechanisms for learning in recurrent circuits.
- Abstract(参考訳): 生物学的ニューラルネットワークは、局所的なシナプス可塑性を用いて、疎結合で遅延したフィードバックから複雑な振る舞いを学習するが、構造化された信用代入を可能にするメカニズムはいまだ解明されていない。
対照的に、同様のタスクを解く人工的なリカレントネットワークは、通常、生物学的に理解できないグローバルな学習ルールや手作りのローカルアップデートに依存している。
遅れた強化からの学習を支援することのできる局所的可塑性規則の空間は、ほとんど未解明のままである。
本稿では,スパースフィードバックを訓練したリカレントネットワークにおいて,構造化クレジット代入の局所学習ルールを検出するメタラーニングフレームワークを提案する。
提案手法は,タスク実行中に局所的ネオヘビアン様の更新をインターリーブし,学習を通しての「textbf{tangent-proagation」を介して可塑性パラメータを最適化する。
結果として得られた3要素学習ルールは、ローカル情報と遅延報酬のみを使用した長期クレジット割り当てを可能にし、リカレント回路で学習するための生物学的基盤されたメカニズムに関する新たな洞察を提供する。
関連論文リスト
- Oja's plasticity rule overcomes several challenges of training neural networks under biological constraints [0.0]
我々は,Ojaの塑性規則を誤り駆動学習に取り入れることで,フィードフォワードおよびリカレントアーキテクチャにおける安定かつ効率的な学習が可能になることを示す。
以上の結果から,Ojaの規則はよりリッチなアクティベーション部分空間を保ち,信号の爆発や消滅を緩和し,リカレントネットワークにおける短期記憶を改善することが示唆された。
論文 参考訳(メタデータ) (2024-08-15T20:26:47Z) - Network bottlenecks and task structure control the evolution of interpretable learning rules in a foraging agent [0.0]
我々は, メタラーニングを, 単純な報酬変調型可塑性規則の進化的最適化により研究した。
制約のないメタラーニングが多様な可塑性規則の出現につながることを示す。
その結果, 可塑性規則のメタラーニングは様々なパラメータに非常に敏感であり, この感度は生物学的ネットワークで見られる学習規則に反映している可能性が示唆された。
論文 参考訳(メタデータ) (2024-03-20T14:57:02Z) - Disentangling the Causes of Plasticity Loss in Neural Networks [55.23250269007988]
可塑性の喪失は複数の独立したメカニズムに分解できることを示す。
種々の非定常学習タスクにおいて, 層正規化と重み劣化の組み合わせは, 可塑性維持に極めて有効であることを示す。
論文 参考訳(メタデータ) (2024-02-29T00:02:33Z) - A General Framework for Interpretable Neural Learning based on Local Information-Theoretic Goal Functions [1.5236380958983644]
我々は、教師なし、教師なし、メモリ学習のタスクを実行するために、'不定型'ニューラルネットワークを導入する。
PIDフレームワークの解釈可能な性質を活用することで、インフォモーフィックネットワークは、局所学習の複雑な構造を理解するための貴重なツールとなる。
論文 参考訳(メタデータ) (2023-06-03T16:34:25Z) - ETLP: Event-based Three-factor Local Plasticity for online learning with
neuromorphic hardware [105.54048699217668]
イベントベース3要素局所塑性(ETLP)の計算複雑性に明らかな優位性を有する精度の競争性能を示す。
また, 局所的可塑性を用いた場合, スパイキングニューロンの閾値適応, 繰り返しトポロジーは, 時間的構造が豊富な時間的パターンを学習するために必要であることを示した。
論文 参考訳(メタデータ) (2023-01-19T19:45:42Z) - Critical Learning Periods for Multisensory Integration in Deep Networks [112.40005682521638]
ニューラルネットワークが様々な情報源からの情報を統合する能力は、トレーニングの初期段階において、適切な相関した信号に晒されることに批判的になることを示す。
臨界周期は、訓練されたシステムとその学習された表現の最終性能を決定づける、複雑で不安定な初期過渡的ダイナミクスから生じることを示す。
論文 参考訳(メタデータ) (2022-10-06T23:50:38Z) - Minimizing Control for Credit Assignment with Strong Feedback [65.59995261310529]
ディープニューラルネットワークにおける勾配に基づくクレジット割り当ての現在の手法は、無限小のフィードバック信号を必要とする。
我々は、神経活動に対する強いフィードバックと勾配に基づく学習を組み合わせることで、ニューラルネットワークの最適化に関する新たな視点を自然に導き出すことを示す。
DFCにおける強いフィードバックを用いることで、空間と時間において完全に局所的な学習規則を用いることで、前向きとフィードバックの接続を同時に学習できることを示す。
論文 参考訳(メタデータ) (2022-04-14T22:06:21Z) - Learning Fast and Slow for Online Time Series Forecasting [76.50127663309604]
Fast and Slow Learning Networks (FSNet)は、オンライン時系列予測のための総合的なフレームワークである。
FSNetは、最近の変更への迅速な適応と、同様の古い知識の取得のバランスを取る。
私たちのコードは公開されます。
論文 参考訳(メタデータ) (2022-02-23T18:23:07Z) - Learning to Learn with Feedback and Local Plasticity [9.51828574518325]
我々はメタラーニングを用いて、フィードバック接続と局所的、生物学的にインスパイアされた学習ルールを用いて学習するネットワークを発見する。
実験の結果, メタトレーニングネットワークは, 多層アーキテクチャにおけるオンラインクレジット割り当てにフィードバック接続を効果的に利用していることがわかった。
論文 参考訳(メタデータ) (2020-06-16T22:49:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。