論文の概要: AdaSmooth: An Adaptive Learning Rate Method based on Effective Ratio
- arxiv url: http://arxiv.org/abs/2204.00825v1
- Date: Sat, 2 Apr 2022 09:48:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 07:59:46.767954
- Title: AdaSmooth: An Adaptive Learning Rate Method based on Effective Ratio
- Title(参考訳): AdaSmooth: 効果的な比率に基づく適応的学習率法
- Authors: Jun Lu
- Abstract要約: 本稿では,AdaSmooth と呼ばれる勾配勾配勾配の1次元学習率法を提案する。
様々な畳み込みニューラルネットワーク、多層パーセプトロン、代替機械学習タスクにおける他の手法と比較して有望な結果を示す。
- 参考スコア(独自算出の注目度): 4.913248451323163
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is well known that we need to choose the hyper-parameters in Momentum,
AdaGrad, AdaDelta, and other alternative stochastic optimizers. While in many
cases, the hyper-parameters are tuned tediously based on experience becoming
more of an art than science. We present a novel per-dimension learning rate
method for gradient descent called AdaSmooth. The method is insensitive to
hyper-parameters thus it requires no manual tuning of the hyper-parameters like
Momentum, AdaGrad, and AdaDelta methods. We show promising results compared to
other methods on different convolutional neural networks, multi-layer
perceptron, and alternative machine learning tasks. Empirical results
demonstrate that AdaSmooth works well in practice and compares favorably to
other stochastic optimization methods in neural networks.
- Abstract(参考訳): Momentum、AdaGrad、AdaDelta、その他の確率最適化器のハイパーパラメータを選択する必要があることはよく知られている。
多くの場合、ハイパーパラメータは科学というよりも芸術になる経験に基づいて退屈に調整される。
本稿では,AdaSmooth と呼ばれる勾配勾配勾配の1次元学習率法を提案する。
この手法はハイパーパラメータに敏感であるため、Momentum、AdaGrad、AdaDeltaなどのハイパーパラメータを手動でチューニングする必要がなくなる。
様々な畳み込みニューラルネットワーク、多層パーセプトロン、代替機械学習タスクにおける他の手法と比較して有望な結果を示す。
実験の結果, adasmoothは実際にうまく動作し, ニューラルネットワークの他の確率的最適化手法と比較した。
関連論文リスト
- Parameter-free Clipped Gradient Descent Meets Polyak [29.764853985834403]
勾配降下とその変種は、機械学習モデルをトレーニングするためのデファクト標準アルゴリズムである。
Inexact Polyak Stepsizeを提案し、これはハイパーパラメータチューニングなしで最適解に収束する。
合成関数を用いて収束結果を数値的に検証し,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-05-23T19:29:38Z) - ELRA: Exponential learning rate adaption gradient descent optimization
method [83.88591755871734]
我々は, 高速(指数率), ab initio(超自由)勾配に基づく適応法を提案する。
本手法の主な考え方は,状況認識による$alphaの適応である。
これは任意の次元 n の問題に適用でき、線型にしかスケールできない。
論文 参考訳(メタデータ) (2023-09-12T14:36:13Z) - Nystrom Method for Accurate and Scalable Implicit Differentiation [25.29277451838466]
我々は,Nystrom法が他の手法と同等あるいは優れた性能を連続的に達成していることを示す。
提案手法は数値的な不安定さを回避し,反復を伴わない行列演算で効率的に計算できる。
論文 参考訳(メタデータ) (2023-02-20T02:37:26Z) - Optimizing Training Trajectories in Variational Autoencoders via Latent
Bayesian Optimization Approach [0.0]
教師なしおよび半教師なしのML手法は、物理学、化学、材料科学の様々な分野に広く採用されている。
教師なしおよび半教師付きMLに対するハイパーパラメータ軌道最適化のための潜在ベイズ最適化(zBO)手法を提案する。
本手法の適用により,MNISTの離散的および連続的回転不変表現とプラズモンナノ粒子材料システムの実験データを求めることができる。
論文 参考訳(メタデータ) (2022-06-30T23:41:47Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Online hyperparameter optimization by real-time recurrent learning [57.01871583756586]
ニューラルネットワーク(rnn)におけるハイパーパラメータ最適化とパラメータ学習の類似性を活用した。
RNNのための学習済みのオンライン学習アルゴリズムのファミリーを適応させ、ハイパーパラメータとネットワークパラメータを同時に調整します。
この手順は、通常の方法に比べて、ウォールクロック時間のほんの少しで、体系的に一般化性能が向上する。
論文 参考訳(メタデータ) (2021-02-15T19:36:18Z) - Efficient Hyperparameter Tuning with Dynamic Accuracy Derivative-Free
Optimization [0.27074235008521236]
我々は,最近の動的精度微分自由最適化法をハイパーパラメータチューニングに適用する。
この方法は、収束保証を維持しながら、学習問題の不正確な評価を可能にする。
固定精度アプローチと比較して頑健さと効率性を実証する。
論文 参考訳(メタデータ) (2020-11-06T00:59:51Z) - Adaptive Gradient Method with Resilience and Momentum [120.83046824742455]
レジリエンスとモメンタム(AdaRem)を用いた適応勾配法を提案する。
AdaRemは、過去の1つのパラメータの変化方向が現在の勾配の方向と一致しているかどうかに応じてパラメータワイズ学習率を調整する。
本手法は,学習速度とテスト誤差の観点から,従来の適応学習率に基づくアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2020-10-21T14:49:00Z) - How much progress have we made in neural network training? A New
Evaluation Protocol for Benchmarking Optimizers [86.36020260204302]
本稿では、エンドツーエンドの効率とデータ付加訓練の効率を評価するための新しいベンチマークプロトコルを提案する。
評価プロトコルは, ランダム探索よりも, 人間のチューニング行動とよく一致していることを示すために, 人間の実験を行った。
次に,提案したベンチマークフレームワークをコンピュータビジョン,自然言語処理,強化学習,グラフマイニングなどのタスクに適用する。
論文 参考訳(メタデータ) (2020-10-19T21:46:39Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。