論文の概要: Statistical Inference for Polyak-Ruppert Averaged Zeroth-order
Stochastic Gradient Algorithm
- arxiv url: http://arxiv.org/abs/2102.05198v2
- Date: Thu, 11 Feb 2021 21:22:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-15 13:21:57.376816
- Title: Statistical Inference for Polyak-Ruppert Averaged Zeroth-order
Stochastic Gradient Algorithm
- Title(参考訳): ポリークラッパート平均ゼロ階確率勾配アルゴリズムの統計的推測
- Authors: Yanhao Jin, Tesi Xiao, Krishnakumar Balasubramanian
- Abstract要約: 過去10年間、複数の機械学習モデルにおける推定やトレーニングは、勾配アルゴリズムの実行と同義語になってきた。
まず、ゼロ次設定でPolyak-Ruppert平均勾配アルゴリズムの中心限界を確立する。
- 参考スコア(独自算出の注目度): 10.936043362876651
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As machine learning models are deployed in critical applications, it becomes
important to not just provide point estimators of the model parameters (or
subsequent predictions), but also quantify the uncertainty associated with
estimating the model parameters via confidence sets. In the last decade,
estimating or training in several machine learning models has become synonymous
with running stochastic gradient algorithms. However, computing the stochastic
gradients in several settings is highly expensive or even impossible at times.
An important question which has thus far not been addressed sufficiently in the
statistical machine learning literature is that of equipping zeroth-order
stochastic gradient algorithms with practical yet rigorous inferential
capabilities. Towards this, in this work, we first establish a central limit
theorem for Polyak-Ruppert averaged stochastic gradient algorithm in the
zeroth-order setting. We then provide online estimators of the asymptotic
covariance matrix appearing in the central limit theorem, thereby providing a
practical procedure for constructing asymptotically valid confidence sets (or
intervals) for parameter estimation (or prediction) in the zeroth-order
setting.
- Abstract(参考訳): 機械学習モデルがクリティカルなアプリケーションにデプロイされるにつれて、モデルパラメータのポイント推定子(あるいはその後の予測)を提供するだけでなく、信頼セットを通じてモデルパラメータを推定する不確実性も定量化することが重要になる。
過去10年間で、いくつかの機械学習モデルにおける推定またはトレーニングは、確率勾配アルゴリズムの実行と同義語になっている。
しかし、いくつかの設定での確率勾配の計算は非常に高価か、時には不可能である。
これまで統計的機械学習文献で十分に対処されていない重要な質問は、ゼロ次確率勾配アルゴリズムを実用的だが厳格な推論能力を装備することである。
そこで本研究では、まず、ゼロ階設定におけるPolyak-Ruppert平均確率勾配アルゴリズムの中央極限定理を確立する。
次に、中心極限定理に現れる漸近共分散行列のオンライン推定を行い、ゼロ階の設定においてパラメータ推定(または予測)のための漸近的に有効な信頼集合(または区間)を構築するための実践的な手順を提供する。
関連論文リスト
- Faster One-Sample Stochastic Conditional Gradient Method for Composite
Convex Minimization [61.26619639722804]
滑らかで非滑らかな項の和として形成される凸有限サム目標を最小化するための条件勾配法(CGM)を提案する。
提案手法は, 平均勾配 (SAG) 推定器を備え, 1回に1回のサンプルしか必要としないが, より高度な分散低減技術と同等の高速収束速度を保証できる。
論文 参考訳(メタデータ) (2022-02-26T19:10:48Z) - Formalization of a Stochastic Approximation Theorem [0.22940141855172028]
近似アルゴリズムは、ターゲットが不明な環境でターゲット値を近似するために使用される反復的な手順である。
もともとは1951年にRobinsとMonroによって発表された論文で、近似の分野は飛躍的に成長し、応用領域に影響を与えている。
論文 参考訳(メタデータ) (2022-02-12T02:31:14Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Fast and Robust Online Inference with Stochastic Gradient Descent via
Random Scaling [0.9806910643086042]
本稿では,勾配降下アルゴリズムの平均化法により推定されるパラメータのベクトルに対するオンライン推論法を提案する。
我々のアプローチはオンラインデータで完全に運用されており、機能中心極限定理によって厳格に支えられている。
論文 参考訳(メタデータ) (2021-06-06T15:38:37Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Storchastic: A Framework for General Stochastic Automatic
Differentiation [9.34612743192798]
グラフの自動微分のための新しいフレームワークであるstorchasticを紹介する。
Storchasticにより、モデラーはサンプリングステップごとに様々な勾配推定方法を選択することができる。
Storchasticは任意の階勾配の推定に偏見がなく、分散減少技術を高階勾配推定に一般化する。
論文 参考訳(メタデータ) (2021-04-01T12:19:54Z) - Online Statistical Inference for Gradient-free Stochastic Optimization [11.00424351177597]
勾配自由最適化法に基づくモデルパラメータの統計的推測問題について検討する。
本稿では,ポリアークラッパート吸収型勾配自由度推定器の集中限界値について述べる。
また、共分散推定のための一般的な勾配のないフレームワークを提供し、共分散推定器の収束速度における関数クエリの複雑さの役割を解析する。
論文 参考訳(メタデータ) (2021-02-05T19:22:41Z) - Policy Gradient for Continuing Tasks in Non-stationary Markov Decision
Processes [112.38662246621969]
強化学習は、マルコフ決定プロセスにおいて期待される累積報酬を最大化するポリシーを見つけることの問題を考える。
我々は、ポリシーを更新するために上昇方向として使用する値関数の偏りのないナビゲーション勾配を計算する。
ポリシー勾配型アルゴリズムの大きな欠点は、定常性の仮定が課せられない限り、それらがエピソジックなタスクに限定されていることである。
論文 参考訳(メタデータ) (2020-10-16T15:15:42Z) - Path Sample-Analytic Gradient Estimators for Stochastic Binary Networks [78.76880041670904]
二進的アクティベーションや二進的重みを持つニューラルネットワークでは、勾配降下によるトレーニングは複雑である。
そこで本研究では,サンプリングと解析近似を併用した新しい推定法を提案する。
勾配推定において高い精度を示し、深部畳み込みモデルにおいてより安定かつ優れた訓練を行うことを示す。
論文 参考訳(メタデータ) (2020-06-04T21:51:21Z) - Instability, Computational Efficiency and Statistical Accuracy [101.32305022521024]
我々は,人口レベルでのアルゴリズムの決定論的収束率と,$n$サンプルに基づく経験的対象に適用した場合の(不安定性)の間の相互作用に基づいて,統計的精度を得るフレームワークを開発する。
本稿では,ガウス混合推定,非線形回帰モデル,情報的非応答モデルなど,いくつかの具体的なモデルに対する一般結果の応用について述べる。
論文 参考訳(メタデータ) (2020-05-22T22:30:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。