論文の概要: Low-Variance Forward Gradients using Direct Feedback Alignment and
Momentum
- arxiv url: http://arxiv.org/abs/2212.07282v3
- Date: Wed, 24 May 2023 12:41:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 02:42:29.730863
- Title: Low-Variance Forward Gradients using Direct Feedback Alignment and
Momentum
- Title(参考訳): 直接フィードバックアライメントとモーメントを用いた低分散フォワード勾配
- Authors: Florian Bacho and Dominique Chu
- Abstract要約: ディープニューラルネットワーク(DNN)における教師付き学習は、一般的にエラーバックプロパゲーション(BP)アルゴリズムを用いて行われる。
BPの代替品を見つけることへの関心が高まっている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Supervised learning in Deep Neural Networks (DNNs) is commonly performed
using the error Backpropagation (BP) algorithm. The sequential propagation of
errors and the transport of weights during the backward pass limits its
efficiency and scalability. Therefore, there is growing interest in finding
local alternatives to BP. Recently, methods based on Forward-Mode Automatic
Differentiation have been proposed, such as the Forward Gradient algorithm and
its variants. However, Forward Gradients suffer from high variance in large
DNNs, which affects convergence. In this paper, we address the large variance
of Forward Gradients and propose the Forward Direct Feedback Alignment (FDFA)
algorithm that combines Activity-Perturbed Forward Gradients with Direct
Feedback Alignment and momentum to compute low-variance gradient estimates in
DNNs. Our results provides both theoretical proof and empirical evidence that
our proposed method achieves lower variance compared to previous Forward
Gradient techniques. By reducing the variance of gradient estimates, our
approach enables faster convergence and better performance when compared to
other local alternatives to backpropagation.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)における教師付き学習は、一般的にエラーバックプロパゲーション(BP)アルゴリズムを用いて行われる。
エラーの逐次伝播と後方通過時の重みの輸送は効率とスケーラビリティを制限している。
そのため、BPの代替品の発見への関心が高まっている。
近年,フォワード・グラデーション・アルゴリズムやその変種など,フォワードモードの自動微分に基づく手法が提案されている。
しかし、Forward Gradientsは、収束に影響を与える大きなDNNにおいて高い分散に悩まされる。
本稿では,フォワード勾配のばらつきに対処し,dnnにおける低分散勾配推定を計算するために,アクティビティ・摂動フォワード勾配と直接フィードバックアライメントと運動量を組み合わせたフォワード・ダイレクト・フィードバック・アライメント(fdfa)アルゴリズムを提案する。
提案手法が従来の前向き勾配法と比較して低分散性を実現するという理論的証明と経験的証明の両方を提供する。
勾配推定のばらつきを小さくすることで,バックプロパゲーションに対する他の局所的な代替品と比較して,より高速な収束と優れた性能を実現する。
関連論文リスト
- Learning Spiking Neural Systems with the Event-Driven Forward-Forward
Process [93.4162636175265]
スパイクニューラルネットワークに対する前向きおよび予測前向き学習プロセスのイベント駆動型一般化を提案する。
神経活動を調整するためのフィードバックシナプスに依存するスパイクニューラルコーディングとは異なり、われわれのモデルは純粋にオンラインとフォワードで動作している。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - The Cascaded Forward Algorithm for Neural Network Training [72.70427821516941]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - The Predictive Forward-Forward Algorithm [79.07468367923619]
本稿では,ニューラルネットワークにおける信頼割当を行うための予測フォワード(PFF)アルゴリズムを提案する。
我々は,有向生成回路と表現回路を同時に同時に学習する,新しい動的リカレントニューラルネットワークを設計する。
PFFは効率よく学習し、学習信号を伝達し、フォワードパスのみでシナプスを更新する。
論文 参考訳(メタデータ) (2023-01-04T05:34:48Z) - Deep Q-network using reservoir computing with multi-layered readout [0.0]
リカレントニューラルネットワーク(RNN)に基づく強化学習(RL)は、文脈に依存したタスクの学習に使用される。
BPTTを使わずにエージェントを訓練するリプレイメモリ導入方式が提案されている。
本稿では,読み出し層に多層ニューラルネットワークを適用することにより,本手法の性能が向上することを示す。
論文 参考訳(メタデータ) (2022-03-03T00:32:55Z) - End-to-End Learning of Deep Kernel Acquisition Functions for Bayesian
Optimization [39.56814839510978]
ニューラルネットワークに基づくカーネルを用いたベイズ最適化のためのメタラーニング手法を提案する。
我々のモデルは、複数のタスクから強化学習フレームワークによって訓練されている。
3つのテキスト文書データセットを用いた実験において,提案手法が既存の手法よりも優れたBO性能を実現することを示す。
論文 参考訳(メタデータ) (2021-11-01T00:42:31Z) - Analytically Tractable Bayesian Deep Q-Learning [0.0]
我々は時間差Q-ラーニングフレームワークを適応させ、抽出可能な近似ガウス推論(TAGI)と互換性を持たせる。
我々は,TAGIがバックプロパゲーション学習ネットワークに匹敵する性能に到達できることを実証した。
論文 参考訳(メタデータ) (2021-06-21T13:11:52Z) - Credit Assignment in Neural Networks through Deep Feedback Control [59.14935871979047]
ディープフィードバックコントロール(Deep Feedback Control, DFC)は、フィードバックコントローラを使用して、望ましい出力ターゲットにマッチするディープニューラルネットワークを駆動し、クレジット割り当てに制御信号を使用する新しい学習方法である。
学習規則は空間と時間において完全に局所的であり、幅広い接続パターンに対するガウス・ニュートンの最適化を近似する。
さらに,DFCと皮質錐体ニューロンのマルチコンパートメントモデルと,局所的な電圧依存性のシナプス可塑性規則を関連づける。
論文 参考訳(メタデータ) (2021-06-15T05:30:17Z) - Analytically Tractable Inference in Deep Neural Networks [0.0]
Tractable Approximate Inference (TAGI)アルゴリズムは、浅いフルコネクテッドニューラルネットワークのバックプロパゲーションに対する実行可能でスケーラブルな代替手段であることが示された。
従来のディープニューラルネットワークアーキテクチャをトレーニングするために、TAGIがバックプロパゲーションのパフォーマンスとどのように一致するか、または上回るかを実証しています。
論文 参考訳(メタデータ) (2021-03-09T14:51:34Z) - Predictive Coding Can Do Exact Backpropagation on Convolutional and
Recurrent Neural Networks [40.51949948934705]
予測符号化ネットワーク(PCN)は、脳内の情報処理に影響を及ぼすモデルである。
BPは現代の機械学習において最も成功した学習方法と考えられている。
生物学的に妥当なアルゴリズムは複雑なアーキテクチャ上でBPの精度を正確に再現できることを示す。
論文 参考訳(メタデータ) (2021-03-05T14:57:01Z) - Phase Retrieval using Expectation Consistent Signal Recovery Algorithm
based on Hypernetwork [73.94896986868146]
位相検索は現代の計算イメージングシステムにおいて重要な要素である。
近年のディープラーニングの進歩は、堅牢で高速なPRの新たな可能性を開いた。
我々は、既存の制限を克服するために、深層展開のための新しいフレームワークを開発する。
論文 参考訳(メタデータ) (2021-01-12T08:36:23Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。