論文の概要: L-SVRG and L-Katyusha with Adaptive Sampling
- arxiv url: http://arxiv.org/abs/2201.13387v3
- Date: Tue, 6 Jun 2023 02:59:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 00:10:55.098951
- Title: L-SVRG and L-Katyusha with Adaptive Sampling
- Title(参考訳): 適応サンプリングによるL-SVRGとL-Katyusha
- Authors: Boxin Zhao, Boxiang Lyu, Mladen Kolar
- Abstract要約: L-SVRGやL-Katyushaのような勾配に基づく最適化手法は機械学習モデルのトレーニングに広く用いられている。
本稿では,L-SVRGとL-Katyushaの適応型サンプリング手法を提案する。
- 参考スコア(独自算出の注目度): 14.203965161488709
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Stochastic gradient-based optimization methods, such as L-SVRG and its
accelerated variant L-Katyusha (Kovalev et al., 2020), are widely used to train
machine learning models.The theoretical and empirical performance of L-SVRG and
L-Katyusha can be improved by sampling observations from a non-uniform
distribution (Qian et al., 2021). However,designing a desired sampling
distribution requires prior knowledge of smoothness constants, which can be
computationally intractable to obtain in practice when the dimension of the
model parameter is high. To address this issue, we propose an adaptive sampling
strategy for L-SVRG and L-Katyusha that can learn the sampling distribution
with little computational overhead, while allowing it to change with iterates,
and at the same time does not require any prior knowledge of the problem
parameters. We prove convergence guarantees for L-SVRG and L-Katyusha for
convex objectives when the sampling distribution changes with iterates. Our
results show that even without prior information, the proposed adaptive
sampling strategy matches, and in some cases even surpasses, the performance of
the sampling scheme in Qian et al. (2021). Extensive simulations support our
theory and the practical utility of the proposed sampling scheme on real data.
- Abstract(参考訳): L-SVRGやその加速変種であるL-Katyusha(Kovalev et al., 2020)のような確率勾配に基づく最適化手法は機械学習モデルの訓練に広く用いられており、L-SVRGとL-Katyushaの理論的および実証的な性能は、非一様分布(Qian et al., 2021)からの観測により改善することができる。
しかし、所望のサンプリング分布を設計するには、モデルパラメータの次元が高い場合、計算上は難解な滑らかさ定数の事前知識が必要である。
この問題に対処するために,L-SVRGとL-Katyushaの適応型サンプリング戦略を提案する。
サンプリング分布が反復的に変化するとき,L-SVRGとL-Katyushaの収束保証を凸目的に対して証明する。
その結果,事前情報がなくても適応的サンプリング戦略が一致し,場合によってはqian et al. (2021) のサンプリング方式の性能を超越する結果が得られた。
広範シミュレーションは実データに基づくサンプリング手法の本理論と実用性を支持する。
関連論文リスト
- Truncating Trajectories in Monte Carlo Policy Evaluation: an Adaptive Approach [51.76826149868971]
モンテカルロシミュレーションによる政策評価は多くのMC強化学習(RL)アルゴリズムの中核にある。
本研究では,異なる長さの軌跡を用いた回帰推定器の平均二乗誤差のサロゲートとして品質指標を提案する。
本稿では,Robust and Iterative Data Collection Strategy Optimization (RIDO) という適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-17T11:47:56Z) - Adaptive Sampling for Continuous Group Equivariant Neural Networks [5.141137421503899]
本稿では,データ中の対称性に対して動的にサンプリングプロセスを調整する適応型サンプリング手法を提案する。
その結果,モデル性能は向上し,メモリ効率は限界的に向上した。
論文 参考訳(メタデータ) (2024-09-13T11:50:09Z) - Amortizing intractable inference in large language models [56.92471123778389]
難治性後部分布のサンプルとして, 償却ベイズ推定を用いる。
我々は,LLMファインチューニングの分散マッチングパラダイムが,最大習熟の代替となることを実証的に実証した。
重要な応用として、チェーン・オブ・ソート推論を潜在変数モデリング問題として解釈する。
論文 参考訳(メタデータ) (2023-10-06T16:36:08Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Gradient and Uncertainty Enhanced Sequential Sampling for Global Fit [0.0]
本稿では、GUESS(Gradient and Uncertainty Enhanced Sequential Smpling)と呼ばれる、グローバル適合のための新しいサンプリング戦略を提案する。
GUESSは, 実験例における他のサロゲート型戦略と比較して, 平均的な試料効率で達成された。
論文 参考訳(メタデータ) (2023-09-29T19:49:39Z) - Learning Sampling Distributions for Model Predictive Control [36.82905770866734]
モデル予測制御(MPC)に対するサンプリングに基づくアプローチは、MPCに対する現代のアプローチの基盤となっている。
我々は、学習された分布を最大限に活用できるように、潜在空間における全ての操作を実行することを提案する。
具体的には、学習問題を双方向の最適化として捉え、バックプロパゲーションスルータイムでコントローラをトレーニングする方法を示す。
論文 参考訳(メタデータ) (2022-12-05T20:35:36Z) - Rethinking Collaborative Metric Learning: Toward an Efficient
Alternative without Negative Sampling [156.7248383178991]
コラボレーティブ・メトリック・ラーニング(CML)パラダイムはレコメンデーション・システム(RS)分野に広く関心を集めている。
負のサンプリングが一般化誤差のバイアス付き推定に繋がることがわかった。
そこで我々は,SFCML (textitSampling-Free Collaborative Metric Learning) という名前のCMLに対して,負のサンプリングを伴わない効率的な手法を提案する。
論文 参考訳(メタデータ) (2022-06-23T08:50:22Z) - Low-variance estimation in the Plackett-Luce model via quasi-Monte Carlo
sampling [58.14878401145309]
PLモデルにおいて,より標本効率の高い予測値を生成するための新しい手法を開発した。
Amazon MusicのリアルなレコメンデーションデータとYahooの学習からランクへの挑戦を理論的にも実証的にも使用しています。
論文 参考訳(メタデータ) (2022-05-12T11:15:47Z) - Variational Inference with NoFAS: Normalizing Flow with Adaptive
Surrogate for Computationally Expensive Models [7.217783736464403]
マルコフ連鎖モンテカルロのようなサンプリングに基づくアプローチの使用は、それぞれの可能性評価が計算的に高価であるときに難解になる可能性がある。
変分推論と正規化フローを組み合わせた新しいアプローチは、潜在変数空間の次元と線形にしか成長しない計算コストによって特徴づけられる。
本稿では,ニューラルネットワークサロゲートモデルの正規化フローパラメータと重みを代わりに更新する最適化戦略である,適応サロゲートを用いた正規化フロー(NoFAS)を提案する。
論文 参考訳(メタデータ) (2021-08-28T14:31:45Z) - Variational Refinement for Importance Sampling Using the Forward
Kullback-Leibler Divergence [77.06203118175335]
変分推論(VI)はベイズ推論における正確なサンプリングの代替として人気がある。
重要度サンプリング(IS)は、ベイズ近似推論手順の推定を微調整し、偏りを逸脱するためにしばしば用いられる。
近似ベイズ推論のための最適化手法とサンプリング手法の新たな組み合わせを提案する。
論文 参考訳(メタデータ) (2021-06-30T11:00:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。