論文の概要: Forward Learning with Top-Down Feedback: Empirical and Analytical
Characterization
- arxiv url: http://arxiv.org/abs/2302.05440v1
- Date: Fri, 10 Feb 2023 18:56:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 14:58:16.078134
- Title: Forward Learning with Top-Down Feedback: Empirical and Analytical
Characterization
- Title(参考訳): トップダウンフィードバックを用いたフォワード学習:実証的・解析的評価
- Authors: Ravi Francesco Srinivasan, Francesca Mignacco, Martino Sorbaro, Maria
Refinetti, Avi Cooper, Gabriel Kreiman, Giorgia Dellaferrera
- Abstract要約: フォワードオンリー」アルゴリズムは、後方通過を避けながらニューラルネットワークを訓練する。
PEPITAはトップダウンフィードバック接続を持つフォワードフォワードと等価であることを示す。
トップダウンフィードバックを用いた"フォワードオンリー"アルゴリズムにウェイトミラーリングアルゴリズムを適用するための戦略を開発する。
- 参考スコア(独自算出の注目度): 9.983756430443302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: "Forward-only" algorithms, which train neural networks while avoiding a
backward pass, have recently gained attention as a way of solving the
biologically unrealistic aspects of backpropagation. Here, we first discuss the
similarities between two "forward-only" algorithms, the Forward-Forward and
PEPITA frameworks, and demonstrate that PEPITA is equivalent to a
Forward-Forward with top-down feedback connections. Then, we focus on PEPITA to
address compelling challenges related to the "forward-only" rules, which
include providing an analytical understanding of their dynamics and reducing
the gap between their performance and that of backpropagation. We propose a
theoretical analysis of the dynamics of PEPITA. In particular, we show that
PEPITA is well-approximated by an "adaptive-feedback-alignment" algorithm and
we analytically track its performance during learning in a prototype
high-dimensional setting. Finally, we develop a strategy to apply the weight
mirroring algorithm on "forward-only" algorithms with top-down feedback and we
show how it impacts PEPITA's accuracy and convergence rate.
- Abstract(参考訳): 後進パスを避けながらニューラルネットワークを訓練する「前方専用」アルゴリズムは、最近、生物学的に非現実的なバックプロパゲーションの問題を解決する方法として注目されている。
本稿では、まず、フォワード-フォワードとPEPITAの2つのアルゴリズムの類似性について論じ、PEPITAがトップダウンのフィードバック接続を持つフォワード-フォワードと等価であることを示す。
次に、pepitaに着目して、そのダイナミクスの分析的理解を提供し、パフォーマンスとバックプロパゲーションのギャップを減らすことを含む、"フォワードのみ"ルールに関連する説得力のある課題に取り組む。
本稿ではPEPITAの力学に関する理論的解析を提案する。
特に,pepitaは"adaptive-feedback-alignment"アルゴリズムで近似しており,プロトタイプの高次元環境での学習時の性能を解析的に追跡する。
最後に、トップダウンフィードバックを用いた「前方のみ」アルゴリズムに重みミラーアルゴリズムを適用し、PEPITAの精度と収束率にどのように影響するかを示す。
関連論文リスト
- Component-based Sketching for Deep ReLU Nets [55.404661149594375]
各種タスクのためのディープネットコンポーネントに基づくスケッチ手法を開発した。
我々はディープネットトレーニングを線形経験的リスク最小化問題に変換する。
提案したコンポーネントベーススケッチは飽和関数の近似においてほぼ最適であることを示す。
論文 参考訳(メタデータ) (2024-09-21T15:30:43Z) - Novel Saliency Analysis for the Forward Forward Algorithm [0.0]
ニューラルネットワークトレーニングにフォワードフォワードアルゴリズムを導入する。
この方法は、2つのフォワードパスを実際のデータで実行し、正の強化を促進する。
従来のサリエンシ手法に固有の制約を克服するため,フォワードフォワードフレームワークに特化してベスポークサリエンシアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-09-18T17:21:59Z) - Beyond Imitation: Leveraging Fine-grained Quality Signals for Alignment [105.34140537748546]
我々はFIGAという改良されたアライメント手法を提案し、従来の手法とは異なり、良質な応答と悪質な応答の対比から導出されるきめ細かい品質信号を取り込む。
まず、初期応答とそれに対応する修正データセットをペアリングする精巧なアライメントデータセットをキュレートする。
第2に,LLMの微粒な品質信号を利用してアライメントの学習を指導する新たな損失関数を考案する。
論文 参考訳(メタデータ) (2023-11-07T15:36:40Z) - A Study of Forward-Forward Algorithm for Self-Supervised Learning [65.268245109828]
本研究では,自己指導型表現学習におけるフォワードとバックプロパゲーションのパフォーマンスについて検討する。
我々の主な発見は、フォワードフォワードアルゴリズムが(自己教師付き)トレーニング中にバックプロパゲーションに相容れないように機能するのに対し、転送性能は研究されたすべての設定において著しく遅れていることである。
論文 参考訳(メタデータ) (2023-09-21T10:14:53Z) - Neural Algorithmic Reasoning Without Intermediate Supervision [21.852775399735005]
我々は、中間的監督に訴えることなく、入出力ペアからのみニューラルネットワーク推論を学ぶことに集中する。
我々は、アルゴリズムの軌跡にアクセスできることなく、モデルの中間計算を正規化できる自己教師対象を構築する。
CLRSic Algorithmic Reasoning Benchmarkのタスクにおいて,提案手法はトラジェクトリを教師する手法と競合することを示す。
論文 参考訳(メタデータ) (2023-06-23T09:57:44Z) - Convergence Analysis and Implicit Regularization of Feedback Alignment
for Deep Linear Networks [27.614609336582568]
ニューラルネットワークのトレーニングのためのバックプロパゲーションの効率的な代替手段であるフィードバックアライメント(FA)アルゴリズムを理論的に解析する。
我々は、連続力学と離散力学の両方に対して、ディープ線形ネットワークのレートで収束保証を提供する。
論文 参考訳(メタデータ) (2021-10-20T22:57:03Z) - Adaptive Inference through Early-Exit Networks: Design, Challenges and
Directions [80.78077900288868]
初期のネットワークの設計手法をその重要コンポーネントに分解し、各コンポーネントの最近の進歩を調査する。
我々は、他の効率的な推論ソリューションと早期に競合する立場をとり、この分野の研究における現在の課題と最も有望な今後の方向性についての洞察を提供する。
論文 参考訳(メタデータ) (2021-06-09T12:33:02Z) - Deep Feedback Inverse Problem Solver [141.26041463617963]
逆問題に対する効率的で効果的で汎用的なアプローチを提案する。
我々は、フォワードプロセスが提供するフィードバック信号を活用し、反復的な更新モデルを学ぶ。
私たちのアプローチは前もってのプロセスに制限がなく、事前の知識も必要ありません。
論文 参考訳(メタデータ) (2021-01-19T16:49:06Z) - Learning the Travelling Salesperson Problem Requires Rethinking
Generalization [9.176056742068813]
トラベリングセールスパーソン問題(TSP)のようなグラフ最適化問題に対するニューラルネットワークソルバのエンドツーエンドトレーニングは近年,関心が高まっている。
最先端の学習駆動アプローチは、自明に小さなサイズで訓練された場合、古典的な解法と密接に関係するが、実践的な規模で学習ポリシーを大規模に一般化することはできない。
この研究は、トレーニングで見られるものよりも大きいインスタンスへの一般化を促進する、原則化されたバイアス、モデルアーキテクチャ、学習アルゴリズムを特定するために、最近の論文を統一するエンドツーエンドのニューラルネットワークパイプラインを提示している。
論文 参考訳(メタデータ) (2020-06-12T10:14:15Z) - Distance-Based Regularisation of Deep Networks for Fine-Tuning [116.71288796019809]
我々は,仮説クラスを,初期訓練前の重みを中心にした小さな球面に制約するアルゴリズムを開発した。
実験的な評価は、我々のアルゴリズムがうまく機能していることを示し、理論的な結果を裏付けるものである。
論文 参考訳(メタデータ) (2020-02-19T16:00:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。