論文の概要: Minimizing Control for Credit Assignment with Strong Feedback
- arxiv url: http://arxiv.org/abs/2204.07249v1
- Date: Thu, 14 Apr 2022 22:06:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 01:26:06.436037
- Title: Minimizing Control for Credit Assignment with Strong Feedback
- Title(参考訳): 強いフィードバックを伴うクレジットアサインメントの最小化制御
- Authors: Alexander Meulemans, Matilde Tristany Farinha, Maria R. Cervera,
Jo\~ao Sacramento, Benjamin F. Grewe
- Abstract要約: ディープニューラルネットワークにおける勾配に基づくクレジット割り当ての現在の手法は、無限小のフィードバック信号を必要とする。
我々は、神経活動に対する強いフィードバックと勾配に基づく学習を組み合わせることで、ニューラルネットワークの最適化に関する新たな視点を自然に導き出すことを示す。
DFCにおける強いフィードバックを用いることで、空間と時間において完全に局所的な学習規則を用いることで、前向きとフィードバックの接続を同時に学習できることを示す。
- 参考スコア(独自算出の注目度): 65.59995261310529
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The success of deep learning attracted interest in whether the brain learns
hierarchical representations using gradient-based learning. However, current
biologically plausible methods for gradient-based credit assignment in deep
neural networks need infinitesimally small feedback signals, which is
problematic in biologically realistic noisy environments and at odds with
experimental evidence in neuroscience showing that top-down feedback can
significantly influence neural activity. Building upon deep feedback control
(DFC), a recently proposed credit assignment method, we combine strong feedback
influences on neural activity with gradient-based learning and show that this
naturally leads to a novel view on neural network optimization. Instead of
gradually changing the network weights towards configurations with low output
loss, weight updates gradually minimize the amount of feedback required from a
controller that drives the network to the supervised output label. Moreover, we
show that the use of strong feedback in DFC allows learning forward and
feedback connections simultaneously, using a learning rule fully local in space
and time. We complement our theoretical results with experiments on standard
computer-vision benchmarks, showing competitive performance to backpropagation
as well as robustness to noise. Overall, our work presents a fundamentally
novel view of learning as control minimization, while sidestepping biologically
unrealistic assumptions.
- Abstract(参考訳): ディープラーニングの成功は、勾配に基づく学習を用いて脳が階層的な表現を学ぶかどうかに関心を惹きつけた。
しかし、ディープニューラルネットワークにおける勾配に基づくクレジット割り当ての現在の生物学的に妥当な方法は、生物学的に現実的な雑音環境において問題となる、無限に小さなフィードバック信号を必要とする。
最近提案されたクレジット割り当て手法であるdeep feedback control(dfc)に基づいて,神経活動に対する強いフィードバックの影響と勾配に基づく学習を組み合わせることにより,ニューラルネットワーク最適化に対する新たな視点が自然に導かれることを示す。
ネットワーク重みを低い出力損失で設定に徐々に変更する代わりに、重み更新は、ネットワークを教師付き出力ラベルに駆動するコントローラから必要なフィードバックの量を徐々に最小化する。
さらに,dfcにおいて強いフィードバックを用いることで,学習規則を空間と時間に完全に局所的に使用することで,フォワード接続とフィードバック接続を同時に学習できることを示す。
我々は,標準コンピュータビジョンベンチマークを用いた実験で理論結果を補完し,バックプロパゲーションに対する競合性能と雑音に対するロバスト性を示した。
全体として,本研究は,生物学的に非現実的な仮定を回避しつつ,制御最小化としての学習の基本的な新しい視点を示す。
関連論文リスト
- Counter-Current Learning: A Biologically Plausible Dual Network Approach for Deep Learning [32.122425860826525]
生物学的妥当性の欠如が 批判されている
本稿では,ニューラルネットワークにおけるクレジット代入のための生物学的に妥当なフレームワークである対流学習(CCL)を提案する。
我々の研究は、ニューラルネットワークにおける学習と適応の代替メカニズムを提供する、生物学的にインスパイアされた、そして実証可能な学習アルゴリズムの方向性を示す。
論文 参考訳(メタデータ) (2024-09-30T00:47:13Z) - Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Layer-wise Feedback Propagation [53.00944147633484]
本稿では、ニューラルネットワークのような予測器のための新しいトレーニング手法であるLFP(Layer-wise Feedback Propagation)を提案する。
LFPは、与えられたタスクの解決に対するそれぞれの貢献に基づいて、個々のコネクションに報酬を割り当てる。
各種モデルやデータセットの勾配降下に匹敵する性能を達成できることの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Observer-Feedback-Feedforward Controller Structures in Reinforcement
Learning [0.0]
本稿では、強化学習に基づく非線形適応制御における構造化ニューラルネットワークの利用を提案する。
焦点は部分的に観測可能なシステムであり、状態とフィードフォワードオブザーバと状態フィードバックとフィードフォワードコントローラを分離したニューラルネットワークを備えている。
論文 参考訳(メタデータ) (2023-04-20T12:59:21Z) - Neuro-Modulated Hebbian Learning for Fully Test-Time Adaptation [22.18972584098911]
完全なテスト時間適応は、推論段階における入力サンプルのシーケンシャル解析に基づいてネットワークモデルを適応することを目的としている。
我々は,神経細胞の反応を局所的なシナプス変化の手順に基づいて調整する生物学的確率学習から着想を得た。
我々は、オンライン適応のための教師なしかつ効果的なメカニズムを提供するソフトなヘビアン学習プロセスを設計する。
論文 参考訳(メタデータ) (2023-03-02T02:18:56Z) - The least-control principle for learning at equilibrium [65.2998274413952]
我々は、平衡反復ニューラルネットワーク、深層平衡モデル、メタラーニングを学ぶための新しい原理を提案する。
私たちの結果は、脳がどのように学習するかを明らかにし、幅広い機械学習問題にアプローチする新しい方法を提供します。
論文 参考訳(メタデータ) (2022-07-04T11:27:08Z) - Credit Assignment in Neural Networks through Deep Feedback Control [59.14935871979047]
ディープフィードバックコントロール(Deep Feedback Control, DFC)は、フィードバックコントローラを使用して、望ましい出力ターゲットにマッチするディープニューラルネットワークを駆動し、クレジット割り当てに制御信号を使用する新しい学習方法である。
学習規則は空間と時間において完全に局所的であり、幅広い接続パターンに対するガウス・ニュートンの最適化を近似する。
さらに,DFCと皮質錐体ニューロンのマルチコンパートメントモデルと,局所的な電圧依存性のシナプス可塑性規則を関連づける。
論文 参考訳(メタデータ) (2021-06-15T05:30:17Z) - Gradient Starvation: A Learning Proclivity in Neural Networks [97.02382916372594]
グラディエント・スターベーションは、タスクに関連する機能のサブセットのみをキャプチャすることで、クロスエントロピー損失を最小化するときに発生する。
この研究は、ニューラルネットワークにおけるそのような特徴不均衡の出現に関する理論的説明を提供する。
論文 参考訳(メタデータ) (2020-11-18T18:52:08Z) - Learning to Learn with Feedback and Local Plasticity [9.51828574518325]
我々はメタラーニングを用いて、フィードバック接続と局所的、生物学的にインスパイアされた学習ルールを用いて学習するネットワークを発見する。
実験の結果, メタトレーニングネットワークは, 多層アーキテクチャにおけるオンラインクレジット割り当てにフィードバック接続を効果的に利用していることがわかった。
論文 参考訳(メタデータ) (2020-06-16T22:49:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。