論文の概要: Online Learning Under A Separable Stochastic Approximation Framework
- arxiv url: http://arxiv.org/abs/2305.07484v2
- Date: Sat, 20 May 2023 18:03:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 02:43:19.144413
- Title: Online Learning Under A Separable Stochastic Approximation Framework
- Title(参考訳): 確率近似フレームワークによるオンライン学習
- Authors: Min Gan, Xiang-xiang Su, Guang-yong Chen, Jing Chen
- Abstract要約: 分離可能な近似フレームワークを用いて,機械学習モデルのクラスに対するオンライン学習アルゴリズムを提案する。
提案アルゴリズムは,他の一般的な学習アルゴリズムと比較して,より堅牢でテスト性能が高いことを示す。
- 参考スコア(独自算出の注目度): 20.26530917721778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an online learning algorithm for a class of machine learning
models under a separable stochastic approximation framework. The essence of our
idea lies in the observation that certain parameters in the models are easier
to optimize than others. In this paper, we focus on models where some
parameters have a linear nature, which is common in machine learning. In one
routine of the proposed algorithm, the linear parameters are updated by the
recursive least squares (RLS) algorithm, which is equivalent to a stochastic
Newton method; then, based on the updated linear parameters, the nonlinear
parameters are updated by the stochastic gradient method (SGD). The proposed
algorithm can be understood as a stochastic approximation version of block
coordinate gradient descent approach in which one part of the parameters is
updated by a second-order SGD method while the other part is updated by a
first-order SGD. Global convergence of the proposed online algorithm for
non-convex cases is established in terms of the expected violation of a
first-order optimality condition. Numerical experiments show that the proposed
method accelerates convergence significantly and produces more robust training
and test performance when compared to other popular learning algorithms.
Moreover, our algorithm is less sensitive to the learning rate and outperforms
the recently proposed slimTrain algorithm (Newman et al., 2022). The code has
been uploaded to GitHub for validation.
- Abstract(参考訳): 確率近似フレームワークを用いて,機械学習モデルのクラスに対するオンライン学習アルゴリズムを提案する。
私たちの考えの本質は、モデル内の特定のパラメータが他のパラメータよりも最適化しやすいという観察にある。
本稿では、いくつかのパラメータが線形性を持つモデルに注目し、機械学習でよく見られるモデルについて述べる。
提案アルゴリズムの1つのルーチンでは、線形パラメータは確率ニュートン法に相当する再帰最小二乗法(recursive least squares,rls)アルゴリズムによって更新され、更新された線形パラメータに基づいて、非線形パラメータは確率勾配法(sgd)によって更新される。
提案アルゴリズムは,パラメータの一方を2次SGD法で更新し,他方を1次SGD法で更新するブロック座標勾配勾配の確率近似版として理解することができる。
非凸ケースに対する提案したオンラインアルゴリズムのグローバル収束は、一階最適条件の予測違反の観点から確立される。
数値実験により,提案手法は収束を著しく加速し,他の一般的な学習アルゴリズムと比較して,より堅牢なトレーニングとテスト性能が得られることが示された。
さらに,本アルゴリズムは学習速度に対する感度が低く,最近提案されたスリムトレインアルゴリズム(newman et al., 2022)を上回っている。
バリデーションのため、コードはgithubにアップロードされた。
関連論文リスト
- Learning the Positions in CountSketch [49.57951567374372]
本稿では,まずランダムなスケッチ行列に乗じてデータを圧縮し,最適化問題を高速に解くスケッチアルゴリズムについて検討する。
本研究では,ゼロでないエントリの位置を最適化する学習ベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-11T07:28:35Z) - Sharp Variance-Dependent Bounds in Reinforcement Learning: Best of Both
Worlds in Stochastic and Deterministic Environments [48.96971760679639]
マルコフ決定過程(MDP)の分散依存的後悔境界について検討する。
環境の微細な分散特性を特徴付けるための2つの新しい環境規範を提案する。
モデルに基づく手法では、MVPアルゴリズムの変種を設計する。
特に、この境界は極小かつ決定論的 MDP に対して同時に最適である。
論文 参考訳(メタデータ) (2023-01-31T06:54:06Z) - Implicit Parameter-free Online Learning with Truncated Linear Models [51.71216912089413]
パラメータフリーアルゴリズムは、設定された学習率を必要としないオンライン学習アルゴリズムである。
そこで我々は,「単純」なフレーバーを持つ新しい更新によって,切り離された線形モデルを活用できる新しいパラメータフリーアルゴリズムを提案する。
後悔の新たな分解に基づいて、新しい更新は効率的で、各ステップで1つの勾配しか必要とせず、切り捨てられたモデルの最小値をオーバーシュートすることはない。
論文 参考訳(メタデータ) (2022-03-19T13:39:49Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Bolstering Stochastic Gradient Descent with Model Building [0.0]
勾配降下法とその変種は、優れた収束率を達成するためのコア最適化アルゴリズムを構成する。
本稿では,前方ステップモデル構築に基づく新しいアルゴリズムを用いて,線探索の代替手法を提案する。
提案アルゴリズムは、よく知られたテスト問題において、より高速な収束とより優れた一般化を実現する。
論文 参考訳(メタデータ) (2021-11-13T06:54:36Z) - Fast and Robust Online Inference with Stochastic Gradient Descent via
Random Scaling [0.9806910643086042]
本稿では,勾配降下アルゴリズムの平均化法により推定されるパラメータのベクトルに対するオンライン推論法を提案する。
我々のアプローチはオンラインデータで完全に運用されており、機能中心極限定理によって厳格に支えられている。
論文 参考訳(メタデータ) (2021-06-06T15:38:37Z) - Meta-Regularization: An Approach to Adaptive Choice of the Learning Rate
in Gradient Descent [20.47598828422897]
第一次下降法における学習率の適応的選択のための新しいアプローチであるtextit-Meta-Regularizationを提案する。
本手法は,正規化項を追加して目的関数を修正し,共同処理パラメータをキャストする。
論文 参考訳(メタデータ) (2021-04-12T13:13:34Z) - Learning Sampling Policy for Faster Derivative Free Optimization [100.27518340593284]
ランダムサンプリングではなく,ZO最適化における摂動を生成するためのサンプリングポリシを学習する,新たな強化学習ベースのZOアルゴリズムを提案する。
その結果,ZO-RLアルゴリズムはサンプリングポリシを学習することでZO勾配の分散を効果的に低減し,既存のZOアルゴリズムよりも高速に収束できることが示唆された。
論文 参考訳(メタデータ) (2021-04-09T14:50:59Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Better Parameter-free Stochastic Optimization with ODE Updates for
Coin-Betting [31.60239268539764]
PFSGDアルゴリズムは最適理論性能を達成しながら、学習速度の設定を必要としない。
そこで本稿では, トランク型モデル上での連続時間Coin-Bettingに基づく新しいパラメータフリーアルゴリズムにより, 経験的ギャップを埋める。
この新しいパラメータフリーアルゴリズムは「最良のデフォルト」学習率でアルゴリズムを上回り、チューニングの必要なく微調整されたベースラインの性能とほぼ一致していることを示す。
論文 参考訳(メタデータ) (2020-06-12T23:10:25Z) - Convergence of Online Adaptive and Recurrent Optimization Algorithms [0.0]
我々は、機械学習で使用されるいくつかの顕著な降下アルゴリズムの局所収束を証明した。
我々は確率的視点ではなく「エルゴディック」を採用し、確率分布の代わりに経験的な時間平均で作業する。
論文 参考訳(メタデータ) (2020-05-12T09:48:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。