論文の概要: Tuning Stochastic Gradient Algorithms for Statistical Inference via
Large-Sample Asymptotics
- arxiv url: http://arxiv.org/abs/2207.12395v3
- Date: Thu, 20 Jul 2023 16:21:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-21 19:07:49.555063
- Title: Tuning Stochastic Gradient Algorithms for Statistical Inference via
Large-Sample Asymptotics
- Title(参考訳): 大規模漸近解析による統計的推測のための確率勾配アルゴリズムのチューニング
- Authors: Jeffrey Negrea, Jun Yang, Haoyue Feng, Daniel M. Roy, Jonathan H.
Huggins
- Abstract要約: 勾配アルゴリズムのチューニングは、一般化可能な理論ではなく、試行錯誤に基づくことが多い。
固定ステップの大きい平均化は、チューニングパラメータの選択に対して堅牢であることを示す。
我々は他の勾配モンテカルロアルゴリズムの体系的解析の基礎を築いた。
- 参考スコア(独自算出の注目度): 18.93569692490218
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The tuning of stochastic gradient algorithms (SGAs) for optimization and
sampling is often based on heuristics and trial-and-error rather than
generalizable theory. We address this theory--practice gap by characterizing
the large-sample statistical asymptotics of SGAs via a joint
step-size--sample-size scaling limit. We show that iterate averaging with a
large fixed step size is robust to the choice of tuning parameters and
asymptotically has covariance proportional to that of the MLE sampling
distribution. We also prove a Bernstein--von Mises-like theorem to guide
tuning, including for generalized posteriors that are robust to model
misspecification. Numerical experiments validate our results and
recommendations in realistic finite-sample regimes. Our work lays the
foundation for a systematic analysis of other stochastic gradient Markov chain
Monte Carlo algorithms for a wide range of models.
- Abstract(参考訳): 最適化とサンプリングのための確率勾配アルゴリズム(SGA)のチューニングはしばしば一般化可能な理論ではなくヒューリスティックスと試行錯誤に基づいている。
この理論は,SGAの大規模統計的漸近をステップサイズ-サンプルサイズスケーリング制限によって特徴付けることによって,実践的ギャップを解消する。
そこで本研究では,mleサンプリング分布に比例する共分散を漸近的に有し,大きな固定ステップサイズの反復平均化がチューニングパラメータの選択にロバストであることを示す。
また,モデル不特定化に頑健な一般化された後部についても,チューニングを導くためのベルンシュタイン・ヴォン・ミセス的定理を証明した。
数値実験により、現実的な有限サンプル状態における結果とレコメンデーションが検証される。
我々の研究は、幅広いモデルに対する他の確率勾配マルコフ連鎖モンテカルロアルゴリズムの系統的解析の基礎を成している。
関連論文リスト
- Unified Convergence Analysis for Score-Based Diffusion Models with Deterministic Samplers [49.1574468325115]
決定論的サンプリングのための統合収束分析フレームワークを提案する。
我々のフレームワークは$tilde O(d2/epsilon)$の反復複雑性を実現する。
また,Denoising Implicit Diffusion Models (DDIM) タイプのサンプルについて詳細な分析を行った。
論文 参考訳(メタデータ) (2024-10-18T07:37:36Z) - Method-of-Moments Inference for GLMs and Doubly Robust Functionals under Proportional Asymptotics [30.324051162373973]
高次元一般化線形モデル(GLM)における回帰係数と信号対雑音比の推定について考察する。
我々は、推論対象の一貫性と漸近的正規性(CAN)推定を導出する。
理論的結果を数値実験と既存文献との比較で補完する。
論文 参考訳(メタデータ) (2024-08-12T12:43:30Z) - Weighted Averaged Stochastic Gradient Descent: Asymptotic Normality and
Optimality [5.817158625734484]
Gradient Descent (SGD) は、現代の統計学および機械学習において最も単純かつ最も人気のあるアルゴリズムの1つである。
異なる環境でのSGDの収束を加速するために、様々な平均化スキームが提案されている。
論文 参考訳(メタデータ) (2023-07-13T17:29:01Z) - Nonconvex Stochastic Scaled-Gradient Descent and Generalized Eigenvector
Problems [98.34292831923335]
オンライン相関解析の問題から,emphStochastic Scaled-Gradient Descent (SSD)アルゴリズムを提案する。
我々はこれらのアイデアをオンライン相関解析に適用し、局所収束率を正規性に比例した最適な1時間スケールのアルゴリズムを初めて導いた。
論文 参考訳(メタデータ) (2021-12-29T18:46:52Z) - Heavy-tailed Streaming Statistical Estimation [58.70341336199497]
ストリーミング$p$のサンプルから重み付き統計推定の課題を考察する。
そこで我々は,傾きの雑音に対して,よりニュアンスな条件下での傾きの傾きの低下を設計し,より詳細な解析を行う。
論文 参考訳(メタデータ) (2021-08-25T21:30:27Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Dynamics of Stochastic Momentum Methods on Large-scale, Quadratic Models [0.2741266294612776]
我々は高次元ランダム最小二乗問題に対して運動量を持つ勾配アルゴリズムのクラスを解析する。
固定運動量パラメータを持つ(小バッチ)運動量では,ステップサイズを正確に調整した場合,SGDよりも実際の性能向上は得られないことを示す。
非強凸条件では、運動量を用いてSGDよりも大きな改善が得られる。
論文 参考訳(メタデータ) (2021-06-07T15:08:24Z) - Probabilistic Circuits for Variational Inference in Discrete Graphical
Models [101.28528515775842]
変分法による離散的グラフィカルモデルの推論は困難である。
エビデンス・ロウアーバウンド(ELBO)を推定するためのサンプリングに基づく多くの手法が提案されている。
Sum Product Networks (SPN) のような確率的回路モデルのトラクタビリティを活用する新しい手法を提案する。
選択的SPNが表現的変動分布として適していることを示し、対象モデルの対数密度が重み付けされた場合、対応するELBOを解析的に計算可能であることを示す。
論文 参考訳(メタデータ) (2020-10-22T05:04:38Z) - Slice Sampling for General Completely Random Measures [74.24975039689893]
本稿では, 後続推定のためのマルコフ連鎖モンテカルロアルゴリズムについて, 補助スライス変数を用いてトランケーションレベルを適応的に設定する。
提案アルゴリズムの有効性は、いくつかの一般的な非パラメトリックモデルで評価される。
論文 参考訳(メタデータ) (2020-06-24T17:53:53Z) - Multi-index Antithetic Stochastic Gradient Algorithm [0.0]
グラディエントアルゴリズム(SGA)は、計算統計学、機械学習、最適化においてユビキタスである。
近年、SGAへの関心が高まり、そのバイアスに関する非漸近的分析が十分に開発されている。
モンテカルロ推定器のクラスにおける平均2乗誤差計算コストの観点から,MASGAは最適推定器であることを示す。
論文 参考訳(メタデータ) (2020-06-10T22:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。