論文の概要: Non-Asymptotic Analysis of Stochastic Approximation Algorithms for
Streaming Data
- arxiv url: http://arxiv.org/abs/2109.07117v7
- Date: Mon, 24 Apr 2023 07:16:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 01:02:44.539852
- Title: Non-Asymptotic Analysis of Stochastic Approximation Algorithms for
Streaming Data
- Title(参考訳): ストリーミングデータに対する確率近似アルゴリズムの非漸近解析
- Authors: Antoine Godichon-Baggioni (LPSM (UMR\_8001)), Nicklas Werge (LPSM
(UMR\_8001)), Olivier Wintenberger (LPSM (UMR\_8001))
- Abstract要約: ストリーミングフレームワークは、時系列に現れる時間変化のミニバッチを使用して最適化問題を解決するのに類似している。
我々は、様々な勾配に基づくアルゴリズムの漸近収束率を提供する。
時間変化したミニバッチに応じて学習率を選択して収束を加速する方法を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a streaming framework for analyzing stochastic
approximation/optimization problems. This streaming framework is analogous to
solving optimization problems using time-varying mini-batches that arrive
sequentially. We provide non-asymptotic convergence rates of various
gradient-based algorithms; this includes the famous Stochastic Gradient (SG)
descent (a.k.a. Robbins-Monro algorithm), mini-batch SG and time-varying
mini-batch SG algorithms, as well as their iterated averages (a.k.a.
Polyak-Ruppert averaging). We show i) how to accelerate convergence by choosing
the learning rate according to the time-varying mini-batches, ii) that
Polyak-Ruppert averaging achieves optimal convergence in terms of attaining the
Cramer-Rao lower bound, and iii) how time-varying mini-batches together with
Polyak-Ruppert averaging can provide variance reduction and accelerate
convergence simultaneously, which is advantageous for many learning problems,
such as online, sequential, and large-scale learning. We further demonstrate
these favorable effects for various time-varying mini-batches.
- Abstract(参考訳): 本稿では,確率近似/最適化問題を解析するためのストリーミングフレームワークを提案する。
このストリーミングフレームワークは、シーケンシャルに到着するタイムバリアリングなミニバッチを使用して最適化問題を解決するのに似ています。
我々は、様々な勾配に基づくアルゴリズムの漸近収束速度を提供し、有名な確率勾配(SG)降下(Robins-Monroアルゴリズム)、ミニバッチSG、時間変化のミニバッチSGアルゴリズム、反復平均(Polyak-Ruppert averaging)を含む。
展示
一 時間変動するミニバッチに応じて学習率を選べば収束を加速させる方法
二 ポリアク=ルッパート平均値がクラー=ラオ下界の達成という点で最適な収束を達成すること、及び
三 時間変化したミニバッチをPolyak-Ruppert平均値と組み合わせることで、分散の低減と収束の促進を同時に実現し、オンライン、シーケンシャル、大規模学習といった多くの学習問題に有利である。
さらに,様々な時間変化のミニバッチに対して,これらの効果を示す。
関連論文リスト
- Smoothing ADMM for Sparse-Penalized Quantile Regression with Non-Convex
Penalties [8.294148737585543]
本稿では,非二次絶対および非平滑収束ペナルティの存在下での凹凸および切断された量子レグレッションについて検討する。
本稿では,スパース回帰に特化してSIADと呼ばれるペナルティ乗算器が増加する新しいループADMアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-04T21:48:51Z) - Ordering for Non-Replacement SGD [7.11967773739707]
我々は,アルゴリズムの非置換形式に対する収束率を改善する順序付けを求める。
我々は,強い凸関数と凸関数のステップサイズを一定かつ小さくするための最適順序付けを開発する。
さらに、注文とミニバッチを組み合わせることで、より複雑なニューラルネットワークにも適用できます。
論文 参考訳(メタデータ) (2023-06-28T00:46:58Z) - Learning from time-dependent streaming data with online stochastic
algorithms [7.283533791778357]
本稿では,時間依存的,偏りのある推定値を用いたストリーミング環境での最適化について述べる。
グラディエントDescent(SGD)、ミニバッチSGD、時間変化のミニバッチSGD、およびPolyak-Ruppert平均値など、いくつかの一階法を解析する。
論文 参考訳(メタデータ) (2022-05-25T07:53:51Z) - Hessian Averaging in Stochastic Newton Methods Achieves Superlinear
Convergence [69.65563161962245]
ニュートン法を用いて,滑らかで強凸な目的関数を考える。
最適段階において局所収束に遷移する普遍重み付き平均化スキームが存在することを示す。
論文 参考訳(メタデータ) (2022-04-20T07:14:21Z) - Faster One-Sample Stochastic Conditional Gradient Method for Composite
Convex Minimization [61.26619639722804]
滑らかで非滑らかな項の和として形成される凸有限サム目標を最小化するための条件勾配法(CGM)を提案する。
提案手法は, 平均勾配 (SAG) 推定器を備え, 1回に1回のサンプルしか必要としないが, より高度な分散低減技術と同等の高速収束速度を保証できる。
論文 参考訳(メタデータ) (2022-02-26T19:10:48Z) - Minibatch vs Local SGD with Shuffling: Tight Convergence Bounds and
Beyond [63.59034509960994]
シャッフルに基づく変種(ミニバッチと局所ランダムリシャッフル)について検討する。
ポリアック・ロジャシエヴィチ条件を満たす滑らかな函数に対して、これらのシャッフル型不変量(英語版)(shuffling-based variants)がそれらの置換式よりも早く収束することを示す収束境界を得る。
我々は, 同期シャッフル法と呼ばれるアルゴリズムの修正を提案し, ほぼ均一な条件下では, 下界よりも収束速度が速くなった。
論文 参考訳(メタデータ) (2021-10-20T02:25:25Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Learning Sampling Policy for Faster Derivative Free Optimization [100.27518340593284]
ランダムサンプリングではなく,ZO最適化における摂動を生成するためのサンプリングポリシを学習する,新たな強化学習ベースのZOアルゴリズムを提案する。
その結果,ZO-RLアルゴリズムはサンプリングポリシを学習することでZO勾配の分散を効果的に低減し,既存のZOアルゴリズムよりも高速に収束できることが示唆された。
論文 参考訳(メタデータ) (2021-04-09T14:50:59Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Stochastic Proximal Gradient Algorithm with Minibatches. Application to
Large Scale Learning Models [2.384873896423002]
非滑らかな成分を持つ汎用合成対象関数に対する勾配アルゴリズムのミニバッチ変種を開発し解析する。
我々は、最小バッチサイズ$N$に対して、$mathcalO(frac1Nepsilon)$$epsilon-$subityが最適解に期待される二次距離で達成されるような、定数および変数のステップサイズ反復ポリシーの複雑さを提供する。
論文 参考訳(メタデータ) (2020-03-30T10:43:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。