論文の概要: Ordering for Non-Replacement SGD
- arxiv url: http://arxiv.org/abs/2306.15848v1
- Date: Wed, 28 Jun 2023 00:46:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 16:13:00.257858
- Title: Ordering for Non-Replacement SGD
- Title(参考訳): 非置換SGDの順序付け
- Authors: Yuetong Xu and Baharan Mirzasoleiman
- Abstract要約: 我々は,アルゴリズムの非置換形式に対する収束率を改善する順序付けを求める。
我々は,強い凸関数と凸関数のステップサイズを一定かつ小さくするための最適順序付けを開発する。
さらに、注文とミニバッチを組み合わせることで、より複雑なニューラルネットワークにも適用できます。
- 参考スコア(独自算出の注目度): 7.11967773739707
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One approach for reducing run time and improving efficiency of machine
learning is to reduce the convergence rate of the optimization algorithm used.
Shuffling is an algorithm technique that is widely used in machine learning,
but it only started to gain attention theoretically in recent years. With
different convergence rates developed for random shuffling and incremental
gradient descent, we seek to find an ordering that can improve the convergence
rates for the non-replacement form of the algorithm. Based on existing bounds
of the distance between the optimal and current iterate, we derive an upper
bound that is dependent on the gradients at the beginning of the epoch. Through
analysis of the bound, we are able to develop optimal orderings for constant
and decreasing step sizes for strongly convex and convex functions. We further
test and verify our results through experiments on synthesis and real data
sets. In addition, we are able to combine the ordering with mini-batch and
further apply it to more complex neural networks, which show promising results.
- Abstract(参考訳): 実行時間の削減と機械学習の効率向上のための1つのアプローチは、使用される最適化アルゴリズムの収束率を低減することである。
Shufflingは機械学習で広く使われているアルゴリズム技術だが、近年は理論上のみ注目を集め始めた。
ランダムシャッフルと漸進勾配降下のために異なる収束速度が発達し、アルゴリズムの非置換形式に対する収束率を改善することができる順序付けを求める。
最適イテレートと電流イテレートの間の距離の既存の境界に基づいて、エポックの開始時の勾配に依存する上界を導出する。
境界解析により、強い凸関数と凸関数のステップサイズを一定かつ小さくするための最適順序付けを開発することができる。
さらに, 合成実験と実データを用いた実験を行い, 実験結果の検証を行った。
さらに、注文とミニバッチを組み合わせることで、より複雑なニューラルネットワークに適用し、有望な結果を示すことができます。
関連論文リスト
- Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Accelerated First-Order Optimization under Nonlinear Constraints [73.2273449996098]
我々は、制約付き最適化のための一階アルゴリズムと非滑らかなシステムの間で、新しい一階アルゴリズムのクラスを設計する。
これらのアルゴリズムの重要な性質は、制約がスパース変数の代わりに速度で表されることである。
論文 参考訳(メタデータ) (2023-02-01T08:50:48Z) - Versatile Single-Loop Method for Gradient Estimator: First and Second
Order Optimality, and its Application to Federated Learning [45.78238792836363]
本稿では,SLEDGE (Single-Loop-E Gradient Estimator) という単一ループアルゴリズムを提案する。
既存の手法とは異なり、SLEDGEは、(ii)2階最適、(ii)PL領域における、(iii)少ないデータ以下の複雑さの利点を持つ。
論文 参考訳(メタデータ) (2022-09-01T11:05:26Z) - An Algebraically Converging Stochastic Gradient Descent Algorithm for
Global Optimization [14.336473214524663]
アルゴリズムの主要な構成要素は、目的関数の値に基づくランダム性である。
アルゴリズムの収束を代数学で証明し、パラメータ空間でチューニングする。
アルゴリズムの効率性とロバスト性を示す数値的な例をいくつか提示する。
論文 参考訳(メタデータ) (2022-04-12T16:27:49Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Meta-Regularization: An Approach to Adaptive Choice of the Learning Rate
in Gradient Descent [20.47598828422897]
第一次下降法における学習率の適応的選択のための新しいアプローチであるtextit-Meta-Regularizationを提案する。
本手法は,正規化項を追加して目的関数を修正し,共同処理パラメータをキャストする。
論文 参考訳(メタデータ) (2021-04-12T13:13:34Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Exploiting Higher Order Smoothness in Derivative-free Optimization and
Continuous Bandits [99.70167985955352]
強凸関数のゼロ次最適化問題について検討する。
予測勾配降下アルゴリズムのランダム化近似を考察する。
その結果,0次アルゴリズムはサンプルの複雑性や問題パラメータの点でほぼ最適であることが示唆された。
論文 参考訳(メタデータ) (2020-06-14T10:42:23Z) - Learning to Optimize Non-Rigid Tracking [54.94145312763044]
我々は、堅牢性を改善し、解法収束を高速化するために学習可能な最適化を採用する。
まず、CNNを通じてエンドツーエンドに学習された深い特徴にアライメントデータ項を統合することにより、追跡対象をアップグレードする。
次に,プレコンディショニング手法と学習手法のギャップを,プレコンディショナを生成するためにトレーニングされたConditionNetを導入することで埋める。
論文 参考訳(メタデータ) (2020-03-27T04:40:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。