論文の概要: Non-Asymptotic Analysis of Stochastic Approximation Algorithms for
Streaming Data
- arxiv url: http://arxiv.org/abs/2109.07117v1
- Date: Wed, 15 Sep 2021 06:58:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 15:10:08.578505
- Title: Non-Asymptotic Analysis of Stochastic Approximation Algorithms for
Streaming Data
- Title(参考訳): ストリーミングデータに対する確率近似アルゴリズムの非漸近解析
- Authors: Antoine Godichon-Baggioni (LPSM (UMR\_8001)), Nicklas Werge (LPSM
(UMR\_8001)), Olivier Wintenberger (LPSM (UMR\_8001))
- Abstract要約: 本稿では,その勾配の偏りのない推定によって凸目標を最小化する手法を提案する。
平均推定値は任意のデータストリームレートに最適かつ堅牢に収束することを示す。
さらに、特定のパターンでデータを処理することで、ノイズ低減を実現することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by the high-frequency data streams continuously generated,
real-time learning is becoming increasingly important. These data streams
should be processed sequentially with the property that the stream may change
over time. In this streaming setting, we propose techniques for minimizing a
convex objective through unbiased estimates of its gradients, commonly referred
to as stochastic approximation problems. Our methods rely on stochastic
approximation algorithms due to their computationally advantage as they only
use the previous iterate as a parameter estimate. The reasoning includes
iterate averaging that guarantees optimal statistical efficiency under
classical conditions. Our non-asymptotic analysis shows accelerated convergence
by selecting the learning rate according to the expected data streams. We show
that the average estimate converges optimally and robustly to any data stream
rate. In addition, noise reduction can be achieved by processing the data in a
specific pattern, which is advantageous for large-scale machine learning. These
theoretical results are illustrated for various data streams, showing the
effectiveness of the proposed algorithms.
- Abstract(参考訳): 連続的に発生する高周波データストリームに動機づけられ、リアルタイム学習がますます重要になっている。
これらのデータストリームは、ストリームが時間とともに変化する可能性がある特性で順次処理されるべきである。
このストリーミング環境では,確率近似問題と呼ばれる勾配の偏りのない推定により,凸目標を最小化する手法を提案する。
本手法は,従来の反復法のみをパラメータ推定として用いるため,計算上有利な確率近似アルゴリズムに依拠する。
この推論は、古典的条件下での最適統計効率を保証する反復平均化を含む。
非漸近解析により,期待したデータストリームに応じて学習率を選択することにより,収束が加速することが示された。
平均推定値は任意のデータストリームレートに最適かつ堅牢に収束することを示す。
さらに、大規模な機械学習に有利な特定のパターンでデータを処理することで、ノイズ低減を実現することができる。
これらの理論結果は様々なデータストリームに対して示され,提案手法の有効性を示す。
関連論文リスト
- Smoothing ADMM for Sparse-Penalized Quantile Regression with Non-Convex
Penalties [8.294148737585543]
本稿では,非二次絶対および非平滑収束ペナルティの存在下での凹凸および切断された量子レグレッションについて検討する。
本稿では,スパース回帰に特化してSIADと呼ばれるペナルティ乗算器が増加する新しいループADMアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-04T21:48:51Z) - Ordering for Non-Replacement SGD [7.11967773739707]
我々は,アルゴリズムの非置換形式に対する収束率を改善する順序付けを求める。
我々は,強い凸関数と凸関数のステップサイズを一定かつ小さくするための最適順序付けを開発する。
さらに、注文とミニバッチを組み合わせることで、より複雑なニューラルネットワークにも適用できます。
論文 参考訳(メタデータ) (2023-06-28T00:46:58Z) - Learning from time-dependent streaming data with online stochastic
algorithms [7.283533791778357]
本稿では,時間依存的,偏りのある推定値を用いたストリーミング環境での最適化について述べる。
グラディエントDescent(SGD)、ミニバッチSGD、時間変化のミニバッチSGD、およびPolyak-Ruppert平均値など、いくつかの一階法を解析する。
論文 参考訳(メタデータ) (2022-05-25T07:53:51Z) - Hessian Averaging in Stochastic Newton Methods Achieves Superlinear
Convergence [69.65563161962245]
ニュートン法を用いて,滑らかで強凸な目的関数を考える。
最適段階において局所収束に遷移する普遍重み付き平均化スキームが存在することを示す。
論文 参考訳(メタデータ) (2022-04-20T07:14:21Z) - Faster One-Sample Stochastic Conditional Gradient Method for Composite
Convex Minimization [61.26619639722804]
滑らかで非滑らかな項の和として形成される凸有限サム目標を最小化するための条件勾配法(CGM)を提案する。
提案手法は, 平均勾配 (SAG) 推定器を備え, 1回に1回のサンプルしか必要としないが, より高度な分散低減技術と同等の高速収束速度を保証できる。
論文 参考訳(メタデータ) (2022-02-26T19:10:48Z) - Minibatch vs Local SGD with Shuffling: Tight Convergence Bounds and
Beyond [63.59034509960994]
シャッフルに基づく変種(ミニバッチと局所ランダムリシャッフル)について検討する。
ポリアック・ロジャシエヴィチ条件を満たす滑らかな函数に対して、これらのシャッフル型不変量(英語版)(shuffling-based variants)がそれらの置換式よりも早く収束することを示す収束境界を得る。
我々は, 同期シャッフル法と呼ばれるアルゴリズムの修正を提案し, ほぼ均一な条件下では, 下界よりも収束速度が速くなった。
論文 参考訳(メタデータ) (2021-10-20T02:25:25Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Learning Sampling Policy for Faster Derivative Free Optimization [100.27518340593284]
ランダムサンプリングではなく,ZO最適化における摂動を生成するためのサンプリングポリシを学習する,新たな強化学習ベースのZOアルゴリズムを提案する。
その結果,ZO-RLアルゴリズムはサンプリングポリシを学習することでZO勾配の分散を効果的に低減し,既存のZOアルゴリズムよりも高速に収束できることが示唆された。
論文 参考訳(メタデータ) (2021-04-09T14:50:59Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Stochastic Proximal Gradient Algorithm with Minibatches. Application to
Large Scale Learning Models [2.384873896423002]
非滑らかな成分を持つ汎用合成対象関数に対する勾配アルゴリズムのミニバッチ変種を開発し解析する。
我々は、最小バッチサイズ$N$に対して、$mathcalO(frac1Nepsilon)$$epsilon-$subityが最適解に期待される二次距離で達成されるような、定数および変数のステップサイズ反復ポリシーの複雑さを提供する。
論文 参考訳(メタデータ) (2020-03-30T10:43:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。