論文の概要: Biological credit assignment through dynamic inversion of feedforward
networks
- arxiv url: http://arxiv.org/abs/2007.05112v2
- Date: Mon, 4 Jan 2021 00:31:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 20:56:07.224994
- Title: Biological credit assignment through dynamic inversion of feedforward
networks
- Title(参考訳): フィードフォワードネットワークの動的インバージョンによる生体クレジット割り当て
- Authors: William F. Podlaski, Christian K. Machens
- Abstract要約: フィードフォワードネットワーク変換は動的に効果的に逆変換できることを示す。
我々はこれらのダイナミクスを汎用フィードフォワードネットワークにマッピングし、その結果のアルゴリズムが教師なしおよび教師なしのデータセットでうまく動作することを示す。
- 参考スコア(独自算出の注目度): 11.345796608258434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning depends on changes in synaptic connections deep inside the brain. In
multilayer networks, these changes are triggered by error signals fed back from
the output, generally through a stepwise inversion of the feedforward
processing steps. The gold standard for this process -- backpropagation --
works well in artificial neural networks, but is biologically implausible.
Several recent proposals have emerged to address this problem, but many of
these biologically-plausible schemes are based on learning an independent set
of feedback connections. This complicates the assignment of errors to each
synapse by making it dependent upon a second learning problem, and by fitting
inversions rather than guaranteeing them. Here, we show that feedforward
network transformations can be effectively inverted through dynamics. We derive
this dynamic inversion from the perspective of feedback control, where the
forward transformation is reused and dynamically interacts with fixed or random
feedback to propagate error signals during the backward pass. Importantly, this
scheme does not rely upon a second learning problem for feedback because
accurate inversion is guaranteed through the network dynamics. We map these
dynamics onto generic feedforward networks, and show that the resulting
algorithm performs well on several supervised and unsupervised datasets.
Finally, we discuss potential links between dynamic inversion and second-order
optimization. Overall, our work introduces an alternative perspective on credit
assignment in the brain, and proposes a special role for temporal dynamics and
feedback control during learning.
- Abstract(参考訳): 学習は、脳内の深いシナプス接続の変化に依存する。
多層ネットワークでは、これらの変化は、一般的にフィードフォワード処理ステップを段階的に反転させることで、出力から返されるエラー信号によって引き起こされる。
このプロセスの金の標準 -- バックプロパゲーション -- は、人工ニューラルネットワークでうまく機能するが、生物学的には不可能である。
この問題に対処するための最近の提案はいくつかあるが、生物学的に証明可能なスキームの多くは、独立したフィードバック接続の集合を学習することに基づいている。
これにより、各シナプスへの誤りの割り当ては、第2の学習問題に依存し、それらを保証するのではなく、反転に適合させることによって複雑になる。
本稿では,フィードフォワードネットワーク変換を動的に逆変換できることを示す。
この動的インバージョンは、前方変換を再利用し、固定あるいはランダムなフィードバックと動的に相互作用し、後方通過時にエラー信号を伝搬するフィードバック制御の観点から導出する。
重要な点として、このスキームは、ネットワークダイナミクスによって正確な逆転が保証されるため、フィードバックのための第2の学習問題に依存しない。
我々はこれらのダイナミクスを汎用フィードフォワードネットワークにマッピングし、その結果のアルゴリズムが教師なしおよび教師なしのデータセットでうまく動作することを示す。
最後に、動的反転と2次最適化の潜在的なリンクについて論じる。
全体として、本研究は、脳における信用割当に関する別の視点を導入し、学習中の時間的ダイナミクスとフィードバック制御の特別な役割を提案する。
関連論文リスト
- Dynamical stability and chaos in artificial neural network trajectories along training [3.379574469735166]
浅いニューラルネットワークのネットワーク軌跡をこのレンズを通して解析することにより,このプロセスの動的特性について検討する。
我々は,学習率の仕組みによって,規則的かつカオス的な行動のヒントを見いだす。
この研究は、力学系理論、ネットワーク理論、機械学習のアイデアの交叉受精にも貢献している。
論文 参考訳(メタデータ) (2024-04-08T17:33:11Z) - Leveraging Low-Rank and Sparse Recurrent Connectivity for Robust
Closed-Loop Control [63.310780486820796]
繰り返し接続のパラメータ化が閉ループ設定のロバスト性にどのように影響するかを示す。
パラメータが少ないクローズドフォーム連続時間ニューラルネットワーク(CfCs)は、フルランクで完全に接続されたニューラルネットワークよりも優れています。
論文 参考訳(メタデータ) (2023-10-05T21:44:18Z) - Centered Self-Attention Layers [89.21791761168032]
変圧器の自己保持機構とグラフニューラルネットワークのメッセージ通過機構を繰り返し適用する。
我々は、このアプリケーションが必然的に、より深い層での同様の表現に過剰なスムーシングをもたらすことを示す。
これらの機構の集約演算子に補正項を提示する。
論文 参考訳(メタデータ) (2023-06-02T15:19:08Z) - Dynamics-aware Adversarial Attack of Adaptive Neural Networks [75.50214601278455]
適応型ニューラルネットワークの動的対向攻撃問題について検討する。
本稿では,LGM(Leaded Gradient Method)を提案する。
我々のLGMは、動的無意識攻撃法と比較して、優れた敵攻撃性能を達成している。
論文 参考訳(メタデータ) (2022-10-15T01:32:08Z) - Learning Dynamics and Generalization in Reinforcement Learning [59.530058000689884]
時間差学習は, エージェントが訓練の初期段階において, 値関数の非平滑成分を適合させるのに役立つことを理論的に示す。
本研究では,高密度報酬タスクの時間差アルゴリズムを用いて学習したニューラルネットワークが,ランダムなネットワークや政策手法で学習した勾配ネットワークよりも,状態間の一般化が弱いことを示す。
論文 参考訳(メタデータ) (2022-06-05T08:49:16Z) - Minimizing Control for Credit Assignment with Strong Feedback [65.59995261310529]
ディープニューラルネットワークにおける勾配に基づくクレジット割り当ての現在の手法は、無限小のフィードバック信号を必要とする。
我々は、神経活動に対する強いフィードバックと勾配に基づく学習を組み合わせることで、ニューラルネットワークの最適化に関する新たな視点を自然に導き出すことを示す。
DFCにおける強いフィードバックを用いることで、空間と時間において完全に局所的な学習規則を用いることで、前向きとフィードバックの接続を同時に学習できることを示す。
論文 参考訳(メタデータ) (2022-04-14T22:06:21Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Error-driven Input Modulation: Solving the Credit Assignment Problem
without a Backward Pass [8.39059551023011]
ニューラルネットワークにおける教師付き学習は、一般的にバックプロパゲーションに依存している。
このアプローチには多くの点において生物学的な妥当性が欠如していることが示されている。
本稿では,入力信号がネットワークの誤りに基づいて変調される第2のフォワードパスに置き換えることを提案する。
論文 参考訳(メタデータ) (2022-01-27T17:12:05Z) - On the role of feedback in visual processing: a predictive coding
perspective [0.6193838300896449]
我々は、フィードフォワード視覚処理のモデルとして深層畳み込みネットワーク(CNN)を検討し、予測符号化(PC)ダイナミクスを実装した。
ノイズレベルが増加するにつれて、ネットワークはますますトップダウンの予測に依存している。
さらに,PCダイナミクスを実装するネットワークの精度は,等価なフォワードネットワークに比べて時間経過とともに著しく向上する。
論文 参考訳(メタデータ) (2021-06-08T10:07:23Z) - Predify: Augmenting deep neural networks with brain-inspired predictive
coding dynamics [0.5284812806199193]
我々は神経科学の一般的な枠組みからインスピレーションを得た:「予測コーディング」
本稿では、この戦略をVGG16とEfficientNetB0という2つの人気ネットワークに実装することで、様々な汚職に対する堅牢性を向上させることを示す。
論文 参考訳(メタデータ) (2021-06-04T22:48:13Z) - Implicit recurrent networks: A novel approach to stationary input
processing with recurrent neural networks in deep learning [0.0]
本研究では,ニューラルネットの新たな実装を深層学習に導入し,検証する。
繰り返しネットワークの暗黙的な実装にバックプロパゲーションアルゴリズムを実装するアルゴリズムを提案する。
シングルレイヤの暗黙的リカレントネットワークはXOR問題を解くことができ、一方、単調に活性化関数が増加するフィードフォワードネットワークは、このタスクで失敗する。
論文 参考訳(メタデータ) (2020-10-20T18:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。