論文の概要: Forward Only Learning for Orthogonal Neural Networks of any Depth
- arxiv url: http://arxiv.org/abs/2512.20668v1
- Date: Fri, 19 Dec 2025 10:03:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.55115
- Title: Forward Only Learning for Orthogonal Neural Networks of any Depth
- Title(参考訳): 任意の深さの直交ニューラルネットワークに対するフォワード学習
- Authors: Paul Caillon, Alex Colagrande, Erwan Fagnou, Blaise Delattre, Alexandre Allauzen,
- Abstract要約: バックプロパゲーションは今日でもニューラルネットワークのトレーニングに使われているデファクトアルゴリズムだ。
PEPITAとフォワードオンリーのフレームワークは、有望な代替案を提案したが、いくつかの隠れたレイヤにスケールアップできなかった。
バックプロパゲーションアルゴリズムでギャップを埋めるFOTONを導入する。
- 参考スコア(独自算出の注目度): 42.47993597828749
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Backpropagation is still the de facto algorithm used today to train neural networks. With the exponential growth of recent architectures, the computational cost of this algorithm also becomes a burden. The recent PEPITA and forward-only frameworks have proposed promising alternatives, but they failed to scale up to a handful of hidden layers, yet limiting their use. In this paper, we first analyze theoretically the main limitations of these approaches. It allows us the design of a forward-only algorithm, which is equivalent to backpropagation under the linear and orthogonal assumptions. By relaxing the linear assumption, we then introduce FOTON (Forward-Only Training of Orthogonal Networks) that bridges the gap with the backpropagation algorithm. Experimental results show that it outperforms PEPITA, enabling us to train neural networks of any depth, without the need for a backward pass. Moreover its performance on convolutional networks clearly opens up avenues for its application to more advanced architectures. The code is open-sourced at https://github.com/p0lcAi/FOTON .
- Abstract(参考訳): バックプロパゲーションは今日でもニューラルネットワークのトレーニングに使われているデファクトアルゴリズムだ。
近年のアーキテクチャの指数的な成長に伴い、このアルゴリズムの計算コストも重荷となる。
最近のPEPITAとフォワードオンリーのフレームワークは、有望な代替案を提案したが、いくつかの隠しレイヤにスケールアップできず、使用を制限した。
本稿ではまず,これらのアプローチの主な限界を理論的に解析する。
これは線形および直交仮定の下でのバックプロパゲーションと等価なフォワード専用アルゴリズムの設計を可能にする。
線形仮定を緩和することにより、バックプロパゲーションアルゴリズムでギャップを埋めるFOTON(Forward-Only Training of Orthogonal Networks)を導入する。
実験の結果,PEPITAよりも優れており,後進パスを必要とせず,任意の深さのニューラルネットワークをトレーニングすることができることがわかった。
さらに、畳み込みネットワークの性能は、より高度なアーキテクチャに応用するための道を開く。
コードはhttps://github.com/p0lcAi/FOTONで公開されている。
関連論文リスト
- Faster Predictive Coding Networks via Better Initialization [52.419343840654186]
本稿では,従来のトレーニングサンプルの反復的進捗を抑えることを目的とした,予測符号化ネットワークのための新しい手法を提案する。
本実験は,教師なし設定と教師なし設定の両方において,収束速度と最終テスト損失が大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2026-01-28T08:52:19Z) - Unfolded proximal neural networks for robust image Gaussian denoising [7.018591019975253]
本稿では,二元FBと二元Chambolle-Pockアルゴリズムの両方に基づいて,ガウス分母タスクのためのPNNを統一的に構築するフレームワークを提案する。
また、これらのアルゴリズムの高速化により、関連するNN層におけるスキップ接続が可能であることを示す。
論文 参考訳(メタデータ) (2023-08-06T15:32:16Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - A Unified Algebraic Perspective on Lipschitz Neural Networks [88.14073994459586]
本稿では,様々なタイプの1-Lipschitzニューラルネットワークを統一する新しい視点を提案する。
そこで本研究では,SDP(Common semidefinite Programming)条件の解析解を求めることによって,既存の多くの手法を導出し,一般化することができることを示す。
SDPベースのLipschitz Layers (SLL) と呼ばれる我々のアプローチは、非自明で効率的な凸ポテンシャル層の一般化を設計できる。
論文 参考訳(メタデータ) (2023-03-06T14:31:09Z) - Improving the Backpropagation Algorithm with Consequentialism Weight
Updates over Mini-Batches [0.40611352512781856]
適応フィルタのスタックとして多層ニューラルネットワークを考えることが可能であることを示す。
我々は,BPで発生した行動の悪影響を予測し,その発生前にも予測し,よりよいアルゴリズムを導入する。
我々の実験は、ディープニューラルネットワークのトレーニングにおけるアルゴリズムの有用性を示す。
論文 参考訳(メタデータ) (2020-03-11T08:45:36Z) - Robust Pruning at Initialization [61.30574156442608]
計算リソースが限られているデバイス上で、機械学習アプリケーションを使用するための、より小さく、エネルギー効率のよいニューラルネットワークの必要性が高まっている。
ディープNNにとって、このような手順はトレーニングが困難であり、例えば、ひとつの層が完全に切断されるのを防ぐことができないため、満足できないままである。
論文 参考訳(メタデータ) (2020-02-19T17:09:50Z) - Distance-Based Regularisation of Deep Networks for Fine-Tuning [116.71288796019809]
我々は,仮説クラスを,初期訓練前の重みを中心にした小さな球面に制約するアルゴリズムを開発した。
実験的な評価は、我々のアルゴリズムがうまく機能していることを示し、理論的な結果を裏付けるものである。
論文 参考訳(メタデータ) (2020-02-19T16:00:47Z) - Lossless Compression of Deep Neural Networks [17.753357839478575]
ディープニューラルネットワークは、画像や言語認識など、多くの予測モデリングタスクで成功している。
モバイルデバイスのような限られた計算資源の下でこれらのネットワークをデプロイすることは困難である。
生成した出力を変更せずに、ニューラルネットワークの単位と層を除去するアルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-01-01T15:04:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。