論文の概要: Forward Learning with Top-Down Feedback: Empirical and Analytical
Characterization
- arxiv url: http://arxiv.org/abs/2302.05440v1
- Date: Fri, 10 Feb 2023 18:56:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 14:58:16.078134
- Title: Forward Learning with Top-Down Feedback: Empirical and Analytical
Characterization
- Title(参考訳): トップダウンフィードバックを用いたフォワード学習:実証的・解析的評価
- Authors: Ravi Francesco Srinivasan, Francesca Mignacco, Martino Sorbaro, Maria
Refinetti, Avi Cooper, Gabriel Kreiman, Giorgia Dellaferrera
- Abstract要約: フォワードオンリー」アルゴリズムは、後方通過を避けながらニューラルネットワークを訓練する。
PEPITAはトップダウンフィードバック接続を持つフォワードフォワードと等価であることを示す。
トップダウンフィードバックを用いた"フォワードオンリー"アルゴリズムにウェイトミラーリングアルゴリズムを適用するための戦略を開発する。
- 参考スコア(独自算出の注目度): 9.983756430443302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: "Forward-only" algorithms, which train neural networks while avoiding a
backward pass, have recently gained attention as a way of solving the
biologically unrealistic aspects of backpropagation. Here, we first discuss the
similarities between two "forward-only" algorithms, the Forward-Forward and
PEPITA frameworks, and demonstrate that PEPITA is equivalent to a
Forward-Forward with top-down feedback connections. Then, we focus on PEPITA to
address compelling challenges related to the "forward-only" rules, which
include providing an analytical understanding of their dynamics and reducing
the gap between their performance and that of backpropagation. We propose a
theoretical analysis of the dynamics of PEPITA. In particular, we show that
PEPITA is well-approximated by an "adaptive-feedback-alignment" algorithm and
we analytically track its performance during learning in a prototype
high-dimensional setting. Finally, we develop a strategy to apply the weight
mirroring algorithm on "forward-only" algorithms with top-down feedback and we
show how it impacts PEPITA's accuracy and convergence rate.
- Abstract(参考訳): 後進パスを避けながらニューラルネットワークを訓練する「前方専用」アルゴリズムは、最近、生物学的に非現実的なバックプロパゲーションの問題を解決する方法として注目されている。
本稿では、まず、フォワード-フォワードとPEPITAの2つのアルゴリズムの類似性について論じ、PEPITAがトップダウンのフィードバック接続を持つフォワード-フォワードと等価であることを示す。
次に、pepitaに着目して、そのダイナミクスの分析的理解を提供し、パフォーマンスとバックプロパゲーションのギャップを減らすことを含む、"フォワードのみ"ルールに関連する説得力のある課題に取り組む。
本稿ではPEPITAの力学に関する理論的解析を提案する。
特に,pepitaは"adaptive-feedback-alignment"アルゴリズムで近似しており,プロトタイプの高次元環境での学習時の性能を解析的に追跡する。
最後に、トップダウンフィードバックを用いた「前方のみ」アルゴリズムに重みミラーアルゴリズムを適用し、PEPITAの精度と収束率にどのように影響するかを示す。
関連論文リスト
- ACE : Off-Policy Actor-Critic with Causality-Aware Entropy
Regularization [54.307506988310045]
因果関係を考慮したエントロピー(entropy)という用語を導入し,効率的な探索を行うための潜在的影響の高いアクションを効果的に識別し,優先順位付けする。
提案アルゴリズムであるACE:Off-policy Actor-critic with Causality-aware Entropy regularizationは,29種類の連続制御タスクに対して,大幅な性能上の優位性を示す。
論文 参考訳(メタデータ) (2024-02-22T13:22:06Z) - Attention Loss Adjusted Prioritized Experience Replay [0.0]
優先再生体験(PER)は、ニューラルネットワークのトレーニング率を改善するために、より知識量の多い経験サンプルを選択することによって、深層強化学習の技術的手段である。
PERで使用される非一様サンプリングは、状態-作用空間分布を必然的にシフトさせ、Q値関数の推定誤差をもたらす。
改良された自己認識ネットワークとダブルサンプリング機構を統合したALAP体験再生アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-13T02:49:32Z) - Provable Reward-Agnostic Preference-Based Reinforcement Learning [67.07008558942792]
PbRL(Preference-based Reinforcement Learning)は、RLエージェントが、軌道上のペアワイドな嗜好に基づくフィードバックを用いてタスクを最適化することを学ぶパラダイムである。
本稿では,隠れた報酬関数の正確な学習を可能にする探索軌道を求める理論的報酬非依存PbRLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:00:09Z) - Smoothed Online Learning for Prediction in Piecewise Affine Systems [54.98643421343919]
本稿では,最近開発されたスムーズなオンライン学習フレームワークに基づく。
これは、断片的なアフィン系における予測とシミュレーションのための最初のアルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-01-26T15:54:14Z) - The Predictive Forward-Forward Algorithm [79.07468367923619]
本稿では,ニューラルネットワークにおける信頼割当を行うための予測フォワード(PFF)アルゴリズムを提案する。
我々は,有向生成回路と表現回路を同時に同時に学習する,新しい動的リカレントニューラルネットワークを設計する。
PFFは効率よく学習し、学習信号を伝達し、フォワードパスのみでシナプスを更新する。
論文 参考訳(メタデータ) (2023-01-04T05:34:48Z) - Incremental Permutation Feature Importance (iPFI): Towards Online
Explanations on Data Streams [8.49072000414555]
私たちはデータを段階的にサンプリングし、バッチモードではなく漸進的に学習する動的なシナリオに興味を持っています。
本研究では,特徴量重要度(PFI)に類似した特徴量の特徴残差化に基づく,特徴量重要度(FI)尺度の効率的なインクリメンタルアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-05T12:34:27Z) - A Theoretical Framework for Inference and Learning in Predictive Coding
Networks [41.58529335439799]
予測符号化(PC)は、計算神経科学において重要な理論である。
予測構成で訓練されたPCNの特性に関する包括的理論的解析を行う。
論文 参考訳(メタデータ) (2022-07-21T04:17:55Z) - Convergence Analysis and Implicit Regularization of Feedback Alignment
for Deep Linear Networks [27.614609336582568]
ニューラルネットワークのトレーニングのためのバックプロパゲーションの効率的な代替手段であるフィードバックアライメント(FA)アルゴリズムを理論的に解析する。
我々は、連続力学と離散力学の両方に対して、ディープ線形ネットワークのレートで収束保証を提供する。
論文 参考訳(メタデータ) (2021-10-20T22:57:03Z) - Adaptive Inference through Early-Exit Networks: Design, Challenges and
Directions [80.78077900288868]
初期のネットワークの設計手法をその重要コンポーネントに分解し、各コンポーネントの最近の進歩を調査する。
我々は、他の効率的な推論ソリューションと早期に競合する立場をとり、この分野の研究における現在の課題と最も有望な今後の方向性についての洞察を提供する。
論文 参考訳(メタデータ) (2021-06-09T12:33:02Z) - A Theoretical Framework for Target Propagation [75.52598682467817]
我々は、バックプロパゲーション(BP)の代替として人気があるが、まだ完全には理解されていないターゲット伝搬(TP)を解析する。
提案理論は,TPがガウス・ニュートン最適化と密接に関係していることを示し,BPとは大きく異なる。
我々は,フィードバックウェイトトレーニングを改善する新しいリコンストラクション損失を通じて,この問題に対する第1の解決策を提供する。
論文 参考訳(メタデータ) (2020-06-25T12:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。