論文の概要: GAIT-prop: A biologically plausible learning rule derived from
backpropagation of error
- arxiv url: http://arxiv.org/abs/2006.06438v3
- Date: Thu, 5 Nov 2020 18:07:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 09:09:15.076275
- Title: GAIT-prop: A biologically plausible learning rule derived from
backpropagation of error
- Title(参考訳): GAIT-prop: 誤りのバックプロパゲーションに基づく生物学的に妥当な学習規則
- Authors: Nasir Ahmad, Marcel A. J. van Gerven, Luca Ambrogioni
- Abstract要約: バックプロパゲーションとターゲット伝搬の修正形態の正確な対応を示す。
一連のコンピュータビジョン実験において,バックプロパゲーションとGAIT-propのほぼ同一性能を示す。
- 参考スコア(独自算出の注目度): 9.948484577581796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional backpropagation of error, though a highly successful algorithm
for learning in artificial neural network models, includes features which are
biologically implausible for learning in real neural circuits. An alternative
called target propagation proposes to solve this implausibility by using a
top-down model of neural activity to convert an error at the output of a neural
network into layer-wise and plausible 'targets' for every unit. These targets
can then be used to produce weight updates for network training. However, thus
far, target propagation has been heuristically proposed without demonstrable
equivalence to backpropagation. Here, we derive an exact correspondence between
backpropagation and a modified form of target propagation (GAIT-prop) where the
target is a small perturbation of the forward pass. Specifically,
backpropagation and GAIT-prop give identical updates when synaptic weight
matrices are orthogonal. In a series of simple computer vision experiments, we
show near-identical performance between backpropagation and GAIT-prop with a
soft orthogonality-inducing regularizer.
- Abstract(参考訳): 従来のエラーのバックプロパゲーションは、人工知能ニューラルネットワークモデルで学ぶための非常に成功したアルゴリズムであるが、実際のニューラルネットワークで学ぶには生物学的に不可能な特徴を含んでいる。
ターゲット伝搬と呼ばれる別の手法は、ニューラルネットワークの出力におけるエラーを各ユニットの階層的かつ妥当な「ターゲット」に変換するために、ニューラルネットワークのトップダウンモデルを使用することで、この難解性を解決することを提案している。
これらのターゲットは、ネットワークトレーニングの重み付け更新に使用できる。
しかし、これまでのところ、バックプロパゲーションに対する実証可能な等価性のないターゲット伝搬はヒューリスティックに提案されている。
ここでは、バックプロパゲーションと、ターゲットがフォワードパスの小さな摂動である修正型のターゲット伝搬(gait-prop)との正確な対応を導出する。
特に、バックプロパゲーションとGAIT-propは、シナプス重量行列が直交するときに同じ更新を与える。
一連のコンピュータビジョン実験において,バックプロパゲーションとGAIT-propとソフト直交誘導正規化器のほぼ同一性能を示す。
関連論文リスト
- PseudoNeg-MAE: Self-Supervised Point Cloud Learning using Conditional Pseudo-Negative Embeddings [55.55445978692678]
PseudoNeg-MAEは,ポイントマスク自動エンコーダのグローバルな特徴表現を強化する,自己教師型学習フレームワークである。
PseudoNeg-MAE は ModelNet40 と ScanObjectNN のデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-24T07:57:21Z) - Desire Backpropagation: A Lightweight Training Algorithm for Multi-Layer
Spiking Neural Networks based on Spike-Timing-Dependent Plasticity [13.384228628766236]
スパイキングニューラルネットワーク(SNN)は、従来の人工ニューラルネットワークの代替となる。
本研究は,隠されたニューロンを含むすべてのニューロンの所望のスパイク活性を導出する方法である欲求バックプロパゲーションを提示する。
我々はMNISTとFashion-MNISTを分類するために3層ネットワークを訓練し、それぞれ98.41%と87.56%の精度に達した。
論文 参考訳(メタデータ) (2022-11-10T08:32:13Z) - Single-phase deep learning in cortico-cortical networks [1.7249361224827535]
バーストCCNは,バースト活動,短期可塑性,樹状突起を対象とする神経介在物を統合した新しいモデルである。
以上の結果から,脳内皮下,細胞下,マイクロサーキット,システムレベルでの皮質的特徴は,脳内単相効率の深層学習と一致していることが示唆された。
論文 参考訳(メタデータ) (2022-06-23T15:10:57Z) - Efficient and Robust Classification for Sparse Attacks [34.48667992227529]
我々は、画像認識、自然言語処理、マルウェア検出の領域において効果的な攻撃として示されてきた$ell$-normで束縛された摂動を考える。
我々は,「トランケーション」と「アドリアル・トレーニング」を組み合わせた新しい防衛手法を提案する。
得られた洞察に触発され、これらのコンポーネントをニューラルネットワーク分類器に拡張する。
論文 参考訳(メタデータ) (2022-01-23T21:18:17Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Biologically Plausible Training Mechanisms for Self-Supervised Learning
in Deep Networks [14.685237010856953]
我々は,深層ネットワークにおける自己教師付き学習(SSL)のための生物学的に妥当なトレーニング機構を開発する。
バックパゲーションの2つの選択肢のうちの1つを用いて学習を行うことができることを示す。
論文 参考訳(メタデータ) (2021-09-30T12:56:57Z) - Relaxing the Constraints on Predictive Coding Models [62.997667081978825]
予測符号化(英: Predictive coding)は、脳が行う主計算が予測誤差の最小化であるとする皮質機能の影響力のある理論である。
アルゴリズムの標準的な実装は、同じ前方と後方の重み、後方の非線形微分、1-1エラーユニット接続といった、潜在的に神経的に予測できない特徴を含んでいる。
本稿では,これらの特徴はアルゴリズムに不可欠なものではなく,Hebbianの更新ルールを用いてパラメータセットを直接あるいは学習することで,学習性能に悪影響を及ぼすことなく除去可能であることを示す。
論文 参考訳(メタデータ) (2020-10-02T15:21:37Z) - Activation Relaxation: A Local Dynamical Approximation to
Backpropagation in the Brain [62.997667081978825]
活性化緩和(AR)は、バックプロパゲーション勾配を力学系の平衡点として構成することで動機付けられる。
我々のアルゴリズムは、正しいバックプロパゲーション勾配に迅速かつ堅牢に収束し、単一のタイプの計算単位しか必要とせず、任意の計算グラフで操作できる。
論文 参考訳(メタデータ) (2020-09-11T11:56:34Z) - Predictive Coding Approximates Backprop along Arbitrary Computation
Graphs [68.8204255655161]
我々は、コア機械学習アーキテクチャを予測的符号化に翻訳する戦略を開発する。
私たちのモデルは、挑戦的な機械学習ベンチマークのバックプロップと同等に機能します。
本手法は,ニューラルネットワークに標準機械学習アルゴリズムを直接実装できる可能性を高める。
論文 参考訳(メタデータ) (2020-06-07T15:35:47Z) - Scaling Equilibrium Propagation to Deep ConvNets by Drastically Reducing
its Gradient Estimator Bias [65.13042449121411]
実際には、EPによって提供される勾配推定によるネットワークのトレーニングは、MNISTよりも難しい視覚タスクにスケールしない。
有限ヌード法に固有のEPの勾配推定のバイアスがこの現象の原因であることを示す。
これらの手法を適用し、非対称な前方および後方接続を持つアーキテクチャをトレーニングし、13.2%のテストエラーを発生させる。
論文 参考訳(メタデータ) (2020-06-06T09:36:07Z) - Improving the Backpropagation Algorithm with Consequentialism Weight
Updates over Mini-Batches [0.40611352512781856]
適応フィルタのスタックとして多層ニューラルネットワークを考えることが可能であることを示す。
我々は,BPで発生した行動の悪影響を予測し,その発生前にも予測し,よりよいアルゴリズムを導入する。
我々の実験は、ディープニューラルネットワークのトレーニングにおけるアルゴリズムの有用性を示す。
論文 参考訳(メタデータ) (2020-03-11T08:45:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。