論文の概要: Approximated Likelihood Ratio: A Forward-Only and Parallel Framework for Boosting Neural Network Training
- arxiv url: http://arxiv.org/abs/2403.12320v1
- Date: Mon, 18 Mar 2024 23:23:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 17:52:34.459146
- Title: Approximated Likelihood Ratio: A Forward-Only and Parallel Framework for Boosting Neural Network Training
- Title(参考訳): 近似同値比:ニューラルネットワークトレーニングの強化のための前向きで並列なフレームワーク
- Authors: Zeliang Zhang, Jinyang Jiang, Zhuo Liu, Susan Liang, Yijie Peng, Chenliang Xu,
- Abstract要約: 本稿では、勾配推定における計算およびメモリ要求を軽減するために、LR法を近似する手法を提案する。
ニューラルネットワークトレーニングにおける近似手法の有効性を実験により実証した。
- 参考スコア(独自算出の注目度): 30.452060061499523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efficient and biologically plausible alternatives to backpropagation in neural network training remain a challenge due to issues such as high computational complexity and additional assumptions about neural networks, which limit scalability to deeper networks. The likelihood ratio method offers a promising gradient estimation strategy but is constrained by significant memory consumption, especially when deploying multiple copies of data to reduce estimation variance. In this paper, we introduce an approximation technique for the likelihood ratio (LR) method to alleviate computational and memory demands in gradient estimation. By exploiting the natural parallelism during the backward pass using LR, we further provide a high-performance training strategy, which pipelines both the forward and backward pass, to make it more suitable for the computation on specialized hardware. Extensive experiments demonstrate the effectiveness of the approximation technique in neural network training. This work underscores the potential of the likelihood ratio method in achieving high-performance neural network training, suggesting avenues for further exploration.
- Abstract(参考訳): ニューラルネットワークトレーニングにおけるバックプロパゲーションの効率的かつ生物学的に可能な代替手段は、高い計算複雑性や、より深いネットワークにスケーラビリティを制限するニューラルネットワークに関する追加の仮定といった問題のために、依然として課題である。
確率比法は、有望な勾配推定戦略を提供するが、特に推定分散を低減するために複数のデータのコピーをデプロイする場合、メモリ消費に制約される。
本稿では,勾配推定における計算およびメモリ要求を軽減するために,LR法を近似する手法を提案する。
LRを用いた後方通過時の自然な並列性を利用して、前方パスと後方パスの両方をパイプライン化し、特殊なハードウェア上での計算により適した高性能なトレーニング戦略を提供する。
広範囲にわたる実験は、ニューラルネットワークトレーニングにおける近似手法の有効性を実証している。
この研究は、高速ニューラルネットワークトレーニングの実現における可能性比法の可能性を強調し、さらなる探索の道筋を示唆している。
関連論文リスト
- Gradient-Free Training of Recurrent Neural Networks using Random Perturbations [1.1742364055094265]
リカレントニューラルネットワーク(RNN)は、チューリング完全性とシーケンシャルな処理能力のために、計算の潜在能力を秘めている。
時間によるバックプロパゲーション(BPTT)は、時間とともにRNNをアンロールすることでバックプロパゲーションアルゴリズムを拡張する。
BPTTは、前方と後方のフェーズをインターリーブし、正確な勾配情報を格納する必要があるなど、大きな欠点に悩まされている。
BPTTと競合するRNNにおける摂動学習に対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-05-14T21:15:29Z) - A Novel Method for improving accuracy in neural network by reinstating
traditional back propagation technique [0.0]
本稿では,各層における勾配計算の必要性を解消する新しい瞬時パラメータ更新手法を提案する。
提案手法は,学習を加速し,消失する勾配問題を回避し,ベンチマークデータセット上で最先端の手法より優れる。
論文 参考訳(メタデータ) (2023-08-09T16:41:00Z) - Pruning a neural network using Bayesian inference [1.776746672434207]
ニューラルネットワークのプルーニングは、大規模ニューラルネットワークの計算とメモリ要求を減らすための非常に効果的な手法である。
本稿では,ベイズ推論を応用したニューラルネットの刈り取り手法を提案する。
論文 参考訳(メタデータ) (2023-08-04T16:34:06Z) - One Forward is Enough for Neural Network Training via Likelihood Ratio
Method [47.013384887197454]
バックプロパゲーション(BP)は、ニューラルネットワークトレーニングにおける勾配計算の主流のアプローチである。
本手法は,1つの前方伝播による推定のための統一可能性比 (ULR) 法を提案する。
論文 参考訳(メタデータ) (2023-05-15T19:02:46Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - Analytically Tractable Inference in Deep Neural Networks [0.0]
Tractable Approximate Inference (TAGI)アルゴリズムは、浅いフルコネクテッドニューラルネットワークのバックプロパゲーションに対する実行可能でスケーラブルな代替手段であることが示された。
従来のディープニューラルネットワークアーキテクチャをトレーニングするために、TAGIがバックプロパゲーションのパフォーマンスとどのように一致するか、または上回るかを実証しています。
論文 参考訳(メタデータ) (2021-03-09T14:51:34Z) - Parallelization Techniques for Verifying Neural Networks [52.917845265248744]
検証問題に基づくアルゴリズムを反復的に導入し、2つの分割戦略を探索する。
また、ニューラルネットワークの検証問題を単純化するために、ニューロンアクティベーションフェーズを利用する、高度に並列化可能な前処理アルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-04-17T20:21:47Z) - Understanding the Effects of Data Parallelism and Sparsity on Neural
Network Training [126.49572353148262]
ニューラルネットワークトレーニングにおける2つの要因として,データ並列性と疎性について検討する。
有望なメリットにもかかわらず、ニューラルネットワークトレーニングに対する彼らの影響を理解することは、依然として明白である。
論文 参考訳(メタデータ) (2020-03-25T10:49:22Z) - Large Batch Training Does Not Need Warmup [111.07680619360528]
大きなバッチサイズを使用してディープニューラルネットワークをトレーニングすることは、有望な結果を示し、多くの現実世界のアプリケーションに利益をもたらしている。
本稿では,大規模バッチ学習のための全層適応レートスケーリング(CLARS)アルゴリズムを提案する。
分析に基づいて,このギャップを埋め,3つの一般的な大規模バッチトレーニング手法の理論的洞察を提示する。
論文 参考訳(メタデータ) (2020-02-04T23:03:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。