論文の概要: ZORB: A Derivative-Free Backpropagation Algorithm for Neural Networks
- arxiv url: http://arxiv.org/abs/2011.08895v1
- Date: Tue, 17 Nov 2020 19:29:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 15:37:57.894890
- Title: ZORB: A Derivative-Free Backpropagation Algorithm for Neural Networks
- Title(参考訳): ZORB: ニューラルネットワークの導出自由バックプロパゲーションアルゴリズム
- Authors: Varun Ranganathan, Alex Lewandowski
- Abstract要約: 我々は、ZORB(Zeroth-Order Relaxed Backpropagation)と呼ばれる、単純だが高速なトレーニングアルゴリズムを提案する。
勾配を計算する代わりに、ZORBは情報をバックプロパゲートするためにターゲットの擬似逆数を使用する。
標準分類と回帰ベンチマークの実験は、グラディエントDescentによる従来のバックプロパゲーションに対するZORBの優位性を示している。
- 参考スコア(独自算出の注目度): 3.6562366216810447
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gradient descent and backpropagation have enabled neural networks to achieve
remarkable results in many real-world applications. Despite ongoing success,
training a neural network with gradient descent can be a slow and strenuous
affair. We present a simple yet faster training algorithm called Zeroth-Order
Relaxed Backpropagation (ZORB). Instead of calculating gradients, ZORB uses the
pseudoinverse of targets to backpropagate information. ZORB is designed to
reduce the time required to train deep neural networks without penalizing
performance. To illustrate the speed up, we trained a feed-forward neural
network with 11 layers on MNIST and observed that ZORB converged 300 times
faster than Adam while achieving a comparable error rate, without any
hyperparameter tuning. We also broaden the scope of ZORB to convolutional
neural networks, and apply it to subsamples of the CIFAR-10 dataset.
Experiments on standard classification and regression benchmarks demonstrate
ZORB's advantage over traditional backpropagation with Gradient Descent.
- Abstract(参考訳): 勾配降下とバックプロパゲーションにより、ニューラルネットワークは多くの現実世界のアプリケーションで顕著な結果を得ることができる。
継続的な成功にもかかわらず、勾配降下を伴うニューラルネットワークのトレーニングは遅くて厳しい問題になる可能性がある。
本稿では、ZORB(Zeroth-Order Relaxed Backpropagation)と呼ばれる、単純かつ高速なトレーニングアルゴリズムを提案する。
勾配を計算する代わりに、ZORBは情報をバックプロパゲートするためにターゲットの擬似逆数を使用する。
ZORBは、パフォーマンスを低下させることなく、ディープニューラルネットワークのトレーニングに必要な時間を短縮するように設計されている。
スピードアップを説明するために,11層からなるフィードフォワードニューラルネットワークをMNISTでトレーニングし,ZORBがAdamの300倍の速度で収束したのに対して,過パラメータチューニングを行なわなかった。
さらに,畳み込みニューラルネットワークへのzorbの適用範囲を広げ,cifar-10データセットのサブサンプルに適用する。
標準分類と回帰ベンチマークの実験は、グラディエントDescentによる従来のバックプロパゲーションに対するZORBの優位性を示している。
関連論文リスト
- Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Desire Backpropagation: A Lightweight Training Algorithm for Multi-Layer
Spiking Neural Networks based on Spike-Timing-Dependent Plasticity [13.384228628766236]
スパイキングニューラルネットワーク(SNN)は、従来の人工ニューラルネットワークの代替となる。
本研究は,隠されたニューロンを含むすべてのニューロンの所望のスパイク活性を導出する方法である欲求バックプロパゲーションを提示する。
我々はMNISTとFashion-MNISTを分類するために3層ネットワークを訓練し、それぞれ98.41%と87.56%の精度に達した。
論文 参考訳(メタデータ) (2022-11-10T08:32:13Z) - Online Training Through Time for Spiking Neural Networks [66.7744060103562]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率のモデルである。
近年のトレーニング手法の進歩により、レイテンシの低い大規模タスクにおいて、ディープSNNを成功させることができた。
本稿では,BPTT から派生した SNN の時間的学習(OTTT)によるオンライントレーニングを提案する。
論文 参考訳(メタデータ) (2022-10-09T07:47:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Navigating Local Minima in Quantized Spiking Neural Networks [3.1351527202068445]
深層学習(DL)アルゴリズムの超効率的な実装においては,スパイキングと量子ニューラルネットワーク(NN)が極めて重要になっている。
これらのネットワークは、ハードしきい値を適用する際の勾配信号の欠如により、エラーのバックプロパゲーションを使用してトレーニングする際の課題に直面している。
本稿では,コサインアニールLRスケジュールと重み非依存適応モーメント推定を併用したシステム評価を行った。
論文 参考訳(メタデータ) (2022-02-15T06:42:25Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Revisiting Batch Normalization for Training Low-latency Deep Spiking
Neural Networks from Scratch [5.511606249429581]
ディープラーニングの代替手段としてスパイキングニューラルネットワーク(SNN)が登場している。
スクラッチからの高精度で低遅延のSNNは、スパイキングニューロンの非分化性の性質に悩まされる。
本稿では、時間的SNNのトレーニングのための時間的バッチ正規化(BNTT)手法を提案する。
論文 参考訳(メタデータ) (2020-10-05T00:49:30Z) - A Hybrid Method for Training Convolutional Neural Networks [3.172761915061083]
本稿では,畳み込みニューラルネットワークの学習にバックプロパゲーションと進化戦略の両方を用いるハイブリッド手法を提案する。
画像分類のタスクにおいて,提案手法は定期的な訓練において改善可能であることを示す。
論文 参考訳(メタデータ) (2020-04-15T17:52:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。