論文の概要: Gravilon: Applications of a New Gradient Descent Method to Machine
Learning
- arxiv url: http://arxiv.org/abs/2008.11370v2
- Date: Wed, 28 Oct 2020 19:15:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 20:52:54.740650
- Title: Gravilon: Applications of a New Gradient Descent Method to Machine
Learning
- Title(参考訳): Gravilon: 機械学習への新しいグラディエントDescent法の応用
- Authors: Chad Kelterborn, Marcin Mazur, and Bogdan V. Petrenko
- Abstract要約: 勾配方向のステップの長さを変更するために超曲面の幾何学を用いて,グラビロンと呼ばれる新しい勾配降下アルゴリズムを提案する。
ニューラルネットワークを用いて、MNIST桁分類において一般的に使用される勾配降下アルゴリズムと比較し、グラビロンの精度と効率を比較した有望な実験結果を提供する。
- 参考スコア(独自算出の注目度): 0.5352699766206809
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gradient descent algorithms have been used in countless applications since
the inception of Newton's method. The explosion in the number of applications
of neural networks has re-energized efforts in recent years to improve the
standard gradient descent method in both efficiency and accuracy. These methods
modify the effect of the gradient in updating the values of the parameters.
These modifications often incorporate hyperparameters: additional variables
whose values must be specified at the outset of the program. We provide, below,
a novel gradient descent algorithm, called Gravilon, that uses the geometry of
the hypersurface to modify the length of the step in the direction of the
gradient. Using neural networks, we provide promising experimental results
comparing the accuracy and efficiency of the Gravilon method against commonly
used gradient descent algorithms on MNIST digit classification.
- Abstract(参考訳): 勾配降下アルゴリズムはニュートン法の導入以来無数の応用に使われてきた。
ニューラルネットワークの応用数の爆発的な増加は、効率と精度の両面で標準勾配降下法を改善するために近年再エネルギー化されている。
これらの方法はパラメータの値を更新する際の勾配の影響を変更する。
これらの変更は、しばしばハイパーパラメータを含む:プログラムの開始時に値が指定されなければならない追加の変数。
下記のように、グラビロンと呼ばれる新しい勾配降下アルゴリズムを提供し、超曲面の幾何学を用いて勾配の方向におけるステップの長さを変化させる。
ニューラルネットを用いて,mnist桁分類におけるグラビロン法と一般的な勾配降下アルゴリズムの精度と効率を比較した有望な実験結果を提供する。
関連論文リスト
- Neural Gradient Learning and Optimization for Oriented Point Normal
Estimation [53.611206368815125]
本研究では,3次元点雲から勾配ベクトルを一貫した向きで学習し,正規推定を行うためのディープラーニング手法を提案する。
局所平面幾何に基づいて角距離場を学習し、粗勾配ベクトルを洗練する。
本手法は,局所特徴記述の精度と能力の一般化を図りながら,グローバル勾配近似を効率的に行う。
論文 参考訳(メタデータ) (2023-09-17T08:35:11Z) - Implicit Bias in Leaky ReLU Networks Trained on High-Dimensional Data [63.34506218832164]
本研究では,ReLUを活性化した2層完全連結ニューラルネットワークにおける勾配流と勾配降下の暗黙的バイアスについて検討する。
勾配流には、均一なニューラルネットワークに対する暗黙のバイアスに関する最近の研究を活用し、リーク的に勾配流が2つ以上のランクを持つニューラルネットワークを生成することを示す。
勾配降下は, ランダムな分散が十分小さい場合, 勾配降下の1ステップでネットワークのランクが劇的に低下し, トレーニング中もランクが小さくなることを示す。
論文 参考訳(メタデータ) (2022-10-13T15:09:54Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - Gradient Correction beyond Gradient Descent [63.33439072360198]
勾配補正は明らかに、ニューラルネットワークのトレーニングにおいて、最も重要な側面である。
勾配補正を行うためのフレームワーク(textbfGCGD)を導入する。
実験結果から, 勾配補正フレームワークは, トレーニングエポックスを$sim$20%削減し, ネットワーク性能を向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-03-16T01:42:25Z) - Normalized Gradient Descent for Variational Quantum Algorithms [4.403985869332685]
VQA(Vari quantum algorithm)は、ノイズの多い量子コンピュータを利用する有望な手法である。
パラメータの更新に正規化勾配ベクトルを用いるNGD法は、いくつかの最適化問題においてうまく活用されている。
本稿では,通常のNGDよりも高速な収束を実現する新しいNGDを提案する。
論文 参考訳(メタデータ) (2021-06-21T11:03:12Z) - Decreasing scaling transition from adaptive gradient descent to
stochastic gradient descent [1.7874193862154875]
本稿では,適応勾配降下法から勾配勾配降下法DSTAdaへのスケーリング遷移を減少させる手法を提案する。
実験の結果,DSTAdaは高速で精度が高く,安定性と堅牢性も向上した。
論文 参考訳(メタデータ) (2021-06-12T11:28:58Z) - Research of Damped Newton Stochastic Gradient Descent Method for Neural
Network Training [6.231508838034926]
勾配降下(SGD)のような一階法は、最近ディープニューラルネットワーク(DNN)を訓練するための一般的な最適化方法です。
本稿では、平均二乗誤差(MSE)の回帰問題とクロスエントロピー損失(CEL)の分類問題に対するDNNの訓練方法として、DN-SGD(Damped Newton Descent)とGGD-DN(Gradient Descent Damped Newton)を提案する。
提案手法はパラメータのごく一部を正確に計算し,計算コストを大幅に削減し,sgdよりも高速かつ高精度な学習プロセスを実現する。
論文 参考訳(メタデータ) (2021-03-31T02:07:18Z) - Exploiting Adam-like Optimization Algorithms to Improve the Performance
of Convolutional Neural Networks [82.61182037130405]
勾配降下(SGD)は深いネットワークを訓練するための主要なアプローチです。
本研究では,現在と過去の勾配の違いに基づいて,Adamに基づく変分を比較する。
resnet50を勾配降下訓練したネットワークのアンサンブルと融合実験を行った。
論文 参考訳(メタデータ) (2021-03-26T18:55:08Z) - Reparametrizing gradient descent [0.0]
本稿では,ノルム適応勾配勾配という最適化アルゴリズムを提案する。
我々のアルゴリズムは準ニュートン法と比較することもできるが、定常点ではなく根を求める。
論文 参考訳(メタデータ) (2020-10-09T20:22:29Z) - Variance Reduction for Deep Q-Learning using Stochastic Recursive
Gradient [51.880464915253924]
深層Q-ラーニングアルゴリズムは、過度な分散を伴う勾配推定に苦しむことが多い。
本稿では、SRG-DQNと呼ばれる新しいアルゴリズムを実現するため、深層Q-ラーニングにおける勾配推定を更新するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-25T00:54:20Z) - Neural gradients are near-lognormal: improved quantized and sparse
training [35.28451407313548]
神経勾配の分布は概ね対数正規である。
神経勾配の計算と記憶の負担を軽減するための2つの閉形式解析法を提案する。
我々の知る限り,本論文は,(1)6ビット浮動小数点形式への勾配の定量化,あるいは(2)精度の低い場合において,最大85%の勾配間隔を達成した最初の論文である。
論文 参考訳(メタデータ) (2020-06-15T07:00:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。