論文の概要: NetworkFF: Unified Layer Optimization in Forward-Only Neural Networks
- arxiv url: http://arxiv.org/abs/2512.17531v2
- Date: Mon, 22 Dec 2025 11:36:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 14:49:56.33441
- Title: NetworkFF: Unified Layer Optimization in Forward-Only Neural Networks
- Title(参考訳): NetworkFF: フォワードオンリーニューラルネットワークにおける統一層最適化
- Authors: Salar Beigzad,
- Abstract要約: 本稿では,CFF(Collaborative Forward-Forward)学習について紹介する。
MNISTとFashion-MNISTの総合的な評価は、ベースラインのForward-Forward実装よりも大幅に改善されている。
これらの知見は、神経形コンピューティングアーキテクチャやエネルギー制約されたAIシステムに即時適用可能な、フォワード・フォワード学習の基本的な強化として、層間コラボレーションを確立している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Forward-Forward algorithm eliminates backpropagation's memory constraints and biological implausibility through dual forward passes with positive and negative data. However, conventional implementations suffer from critical inter-layer isolation, where layers optimize goodness functions independently without leveraging collective learning dynamics. This isolation constrains representational coordination and limits convergence efficiency in deeper architectures. This paper introduces Collaborative Forward-Forward (CFF) learning, extending the original algorithm through inter-layer cooperation mechanisms that preserve forward-only computation while enabling global context integration. Our framework implements two collaborative paradigms: Fixed CFF (F-CFF) with constant inter-layer coupling and Adaptive CFF (A-CFF) with learnable collaboration parameters that evolve during training. The collaborative goodness function incorporates weighted contributions from all layers, enabling coordinated feature learning while maintaining memory efficiency and biological plausibility. Comprehensive evaluation on MNIST and Fashion-MNIST demonstrates significant performance improvements over baseline Forward-Forward implementations. These findings establish inter-layer collaboration as a fundamental enhancement to Forward-Forward learning, with immediate applicability to neuromorphic computing architectures and energy-constrained AI systems.
- Abstract(参考訳): フォワード・フォワードアルゴリズムは、正と負のデータを持つ二重フォワードパスを通じて、バックプロパゲーションのメモリ制約と生物学的不確実性を除去する。
しかし、従来の実装は層間分離に悩まされており、レイヤーは集団学習のダイナミクスを活用せずに、良性関数を独立して最適化する。
この分離は、より深いアーキテクチャにおける表現的調整と収束効率の制限を制約する。
本稿では,グローバルな文脈統合を実現しつつ,前向きのみの計算を保ちながら,階層間協調機構を通じて元のアルゴリズムを拡張した協調前向き学習(CFF)を提案する。
我々のフレームワークは2つの協調パラダイムを実装している: 一定の層間結合を持つ固定CFF (F-CFF) と、訓練中に進化する学習可能な協調パラメータを持つ適応CFF (A-CFF) である。
協調的良性関数は、すべてのレイヤからの重み付けされたコントリビューションを含んでおり、メモリ効率と生物学的妥当性を維持しながら、協調的な特徴学習を可能にする。
MNISTとFashion-MNISTの総合的な評価は、ベースラインのForward-Forward実装よりも大幅に改善されている。
これらの知見は、神経形コンピューティングアーキテクチャやエネルギー制約されたAIシステムに即時適用可能な、フォワード-フォワード学習の基本的な強化として、層間コラボレーションを確立している。
関連論文リスト
- Forward-Forward Autoencoder Architectures for Energy-Efficient Wireless Communications [18.181336872549124]
フォワードフォワード(FF)学習は、バックプロパゲーション(BP)アルゴリズムの効率的な代替手段である。
そのいくつかの利点の中で、FF学習は通信チャネルの差別化を必要としない。
付加的な白色ガウス雑音とレイリーブロック消音チャネルに対するそれらの性能を数値的に評価する。
論文 参考訳(メタデータ) (2025-10-13T13:54:50Z) - Decentralized Dynamic Cooperation of Personalized Models for Federated Continual Learning [50.56947843548702]
フェデレーション型連続学習のための分散動的協調フレームワークを提案する。
顧客は、新しい知識の獲得と事前学習の維持のバランスをとるために、動的な協調学習連合を確立する。
また、協調的・動的平衡を達成するために、マージブロックアルゴリズムと動的協調的進化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-09-28T06:53:23Z) - Addressing the Collaboration Dilemma in Low-Data Federated Learning via Transient Sparsity [21.664069606697698]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散クライアント間で協調的なモデルトレーニングを可能にする。
FLにおける階層的慣性現象を同定し,グローバルモデルの中間層は早期通信ラウンド後に最小限のアップデートを行う。
LIPS(Layer-wise Inertia Phenomenon with Sparsity)は,周期的に過渡的なスパーシリティを導入し,意味のある更新を刺激し,グローバルアグリゲーションを増強する,シンプルかつ効果的な手法である。
論文 参考訳(メタデータ) (2025-06-01T09:53:54Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - The Predictive Forward-Forward Algorithm [79.07468367923619]
本稿では,ニューラルネットワークにおける信頼割当を行うための予測フォワード(PFF)アルゴリズムを提案する。
我々は,有向生成回路と表現回路を同時に同時に学習する,新しい動的リカレントニューラルネットワークを設計する。
PFFは効率よく学習し、学習信号を伝達し、フォワードパスのみでシナプスを更新する。
論文 参考訳(メタデータ) (2023-01-04T05:34:48Z) - Deep Multi-Task Learning for Cooperative NOMA: System Design and
Principles [52.79089414630366]
我々は,近年のディープラーニング(DL)の進歩を反映した,新しいディープ・コラボレーティブなNOMAスキームを開発する。
我々は,システム全体を包括的に最適化できるように,新しいハイブリッドカスケードディープニューラルネットワーク(DNN)アーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-07-27T12:38:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。