論文の概要: Multi-index Antithetic Stochastic Gradient Algorithm
- arxiv url: http://arxiv.org/abs/2006.06102v2
- Date: Thu, 30 Sep 2021 13:10:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 05:33:06.033775
- Title: Multi-index Antithetic Stochastic Gradient Algorithm
- Title(参考訳): マルチインデックス抗原確率勾配アルゴリズム
- Authors: Mateusz B. Majka, Marc Sabate-Vidales, {\L}ukasz Szpruch
- Abstract要約: グラディエントアルゴリズム(SGA)は、計算統計学、機械学習、最適化においてユビキタスである。
近年、SGAへの関心が高まり、そのバイアスに関する非漸近的分析が十分に開発されている。
モンテカルロ推定器のクラスにおける平均2乗誤差計算コストの観点から,MASGAは最適推定器であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stochastic Gradient Algorithms (SGAs) are ubiquitous in computational
statistics, machine learning and optimisation. Recent years have brought an
influx of interest in SGAs, and the non-asymptotic analysis of their bias is by
now well-developed. However, relatively little is known about the optimal
choice of the random approximation (e.g mini-batching) of the gradient in SGAs
as this relies on the analysis of the variance and is problem specific. While
there have been numerous attempts to reduce the variance of SGAs, these
typically exploit a particular structure of the sampled distribution by
requiring a priori knowledge of its density's mode. It is thus unclear how to
adapt such algorithms to non-log-concave settings. In this paper, we construct
a Multi-index Antithetic Stochastic Gradient Algorithm (MASGA) whose
implementation is independent of the structure of the target measure and which
achieves performance on par with Monte Carlo estimators that have access to
unbiased samples from the distribution of interest. In other words, MASGA is an
optimal estimator from the mean square error-computational cost perspective
within the class of Monte Carlo estimators. We prove this fact rigorously for
log-concave settings and verify it numerically for some examples where the
log-concavity assumption is not satisfied.
- Abstract(参考訳): 確率勾配アルゴリズム(SGA)は、計算統計学、機械学習、最適化においてユビキタスである。
近年、SGAへの関心が高まり、そのバイアスの非漸近的分析が十分に開発されている。
しかし、sgasの勾配のランダム近似(ミニバッチングなど)の最適選択については、分散の解析と問題特定に依存するため、比較的知られていない。
SGAの分散を減らそうとする試みは数多くあるが、これらは典型的にはサンプル分布の特定の構造を利用して密度モードの事前知識を必要とする。
したがって、そのようなアルゴリズムを非log-concave設定に適応させる方法が不明確である。
本稿では,対象測度の構造に依存せず,興味の分布から偏りのないサンプルにアクセス可能なモンテカルロ推定器に匹敵する性能を実現するマルチインデックス・アンチテーク確率勾配アルゴリズム(masga)を構築した。
言い換えれば、MASGAはモンテカルロ推定器のクラスにおける平均二乗誤差計算コストの観点からの最適推定器である。
この事実をログ凹凸設定に厳密に証明し、ログ凹凸仮定が満たされていないいくつかの例で数値的に検証する。
関連論文リスト
- Random Scaling and Momentum for Non-smooth Non-convex Optimization [38.443430569753026]
ニューラルネットワークのトレーニングには、非常に不規則な、特に凸や滑らかな損失関数が必要である。
一般的なトレーニングアルゴリズムは運動量による勾配降下(SGDM)に基づいており、損失が凸あるいは滑らかである場合にのみ解析が適用される。
論文 参考訳(メタデータ) (2024-05-16T00:52:03Z) - A general error analysis for randomized low-rank approximation with application to data assimilation [42.57210316104905]
中心行列および非標準行列に対するフロベニウスノルムにおける低ランク近似誤差の解析のための枠組みを提案する。
最小限の仮定の下では、期待と確率の正確な境界を導出する。
私たちの境界には、プロパティを導出し、実践的な選択を動機付けるための明確な解釈があります。
論文 参考訳(メタデータ) (2024-05-08T04:51:56Z) - Tuning Stochastic Gradient Algorithms for Statistical Inference via
Large-Sample Asymptotics [18.93569692490218]
勾配アルゴリズムのチューニングは、一般化可能な理論ではなく、試行錯誤に基づくことが多い。
固定ステップの大きい平均化は、チューニングパラメータの選択に対して堅牢であることを示す。
我々は他の勾配モンテカルロアルゴリズムの体系的解析の基礎を築いた。
論文 参考訳(メタデータ) (2022-07-25T17:58:09Z) - Nonconvex Stochastic Scaled-Gradient Descent and Generalized Eigenvector
Problems [98.34292831923335]
オンライン相関解析の問題から,emphStochastic Scaled-Gradient Descent (SSD)アルゴリズムを提案する。
我々はこれらのアイデアをオンライン相関解析に適用し、局所収束率を正規性に比例した最適な1時間スケールのアルゴリズムを初めて導いた。
論文 参考訳(メタデータ) (2021-12-29T18:46:52Z) - Amortized Implicit Differentiation for Stochastic Bilevel Optimization [53.12363770169761]
決定論的条件と決定論的条件の両方において、二段階最適化問題を解決するアルゴリズムのクラスについて検討する。
厳密な勾配の推定を補正するために、ウォームスタート戦略を利用する。
このフレームワークを用いることで、これらのアルゴリズムは勾配の偏りのない推定値にアクセス可能な手法の計算複雑性と一致することを示す。
論文 参考訳(メタデータ) (2021-11-29T15:10:09Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Stochastic optimization with momentum: convergence, fluctuations, and
traps avoidance [0.0]
本稿では,重球法,ネステロフ加速勾配法(S-NAG),広く使用されているアダム法など,勾配勾配勾配のいくつかの変種を統一する一般最適化手法について検討する。
この回避は、非自明な常微分方程式のノイズ離散化として研究される。
論文 参考訳(メタデータ) (2020-12-07T19:14:49Z) - Private Stochastic Non-Convex Optimization: Adaptive Algorithms and
Tighter Generalization Bounds [72.63031036770425]
有界非次元最適化のための差分プライベート(DP)アルゴリズムを提案する。
標準勾配法に対する経験的優位性について,2つの一般的なディープラーニング手法を実証する。
論文 参考訳(メタデータ) (2020-06-24T06:01:24Z) - Instability, Computational Efficiency and Statistical Accuracy [101.32305022521024]
我々は,人口レベルでのアルゴリズムの決定論的収束率と,$n$サンプルに基づく経験的対象に適用した場合の(不安定性)の間の相互作用に基づいて,統計的精度を得るフレームワークを開発する。
本稿では,ガウス混合推定,非線形回帰モデル,情報的非応答モデルなど,いくつかの具体的なモデルに対する一般結果の応用について述べる。
論文 参考訳(メタデータ) (2020-05-22T22:30:52Z) - Stochastic Proximal Gradient Algorithm with Minibatches. Application to
Large Scale Learning Models [2.384873896423002]
非滑らかな成分を持つ汎用合成対象関数に対する勾配アルゴリズムのミニバッチ変種を開発し解析する。
我々は、最小バッチサイズ$N$に対して、$mathcalO(frac1Nepsilon)$$epsilon-$subityが最適解に期待される二次距離で達成されるような、定数および変数のステップサイズ反復ポリシーの複雑さを提供する。
論文 参考訳(メタデータ) (2020-03-30T10:43:56Z) - Is Temporal Difference Learning Optimal? An Instance-Dependent Analysis [102.29671176698373]
我々は、割引決定過程における政策評価の問題に対処し、生成モデルの下で、ll_infty$errorに対するマルコフに依存した保証を提供する。
我々は、ポリシー評価のために、局所ミニマックス下限の両漸近バージョンと非漸近バージョンを確立し、アルゴリズムを比較するためのインスタンス依存ベースラインを提供する。
論文 参考訳(メタデータ) (2020-03-16T17:15:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。