論文の概要: Constructing unbiased gradient estimators with finite variance for
conditional stochastic optimization
- arxiv url: http://arxiv.org/abs/2206.01991v1
- Date: Sat, 4 Jun 2022 13:28:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 17:39:38.442622
- Title: Constructing unbiased gradient estimators with finite variance for
conditional stochastic optimization
- Title(参考訳): 条件確率最適化のための有限分散をもつ非バイアス勾配推定器の構成
- Authors: Takashi Goda, Wataru Kitade
- Abstract要約: 条件最適化問題の解法として勾配降下法について検討する。
このようなパラメトリックなネスト予想の勾配は、再びネスト予想として表される。
いくつかの条件下では、マルチレベルモンテカルロ勾配推定器が非バイアスであることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We study stochastic gradient descent for solving conditional stochastic
optimization problems, in which an objective to be minimized is given by a
parametric nested expectation with an outer expectation taken with respect to
one random variable and an inner conditional expectation with respect to the
other random variable. The gradient of such a parametric nested expectation is
again expressed as a nested expectation, which makes it hard for the standard
nested Monte Carlo estimator to be unbiased. In this paper, we show under some
conditions that a multilevel Monte Carlo gradient estimator is unbiased and has
finite variance and finite expected computational cost, so that the standard
theory from stochastic optimization for a parametric (non-nested) expectation
directly applies. We also discuss a special case for which yet another unbiased
gradient estimator with finite variance and cost can be constructed.
- Abstract(参考訳): 条件付き確率最適化問題に対する確率勾配降下法について検討し, 最小化の目的を, 1つの確率変数に対する外的期待値と他の確率変数に対する内的条件付き期待値とのパラメトリックネステッド期待値によって与える。
このようなパラメトリックなネスト期待の勾配は再びネスト期待として表現され、標準のネストされたモンテカルロ推定器が偏りなくなってしまう。
本稿では,マルチレベルモンテカルロ勾配推定器が偏りがなく,有限分散と有限期待計算コストを持つ条件下で,パラメトリック(非負)期待に対する確率的最適化による標準理論を直接適用できることを示す。
また,有限分散とコストを持つ非バイアス勾配推定器を構築できる特別な場合についても考察する。
関連論文リスト
- Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - Leveraging Nested MLMC for Sequential Neural Posterior Estimation with
Intractable Likelihoods [0.8287206589886881]
SNPE法は,難解な確率でシミュレーションベースモデルを扱うために提案される。
本稿では,ネスト予測を推定するためのネスト推定APT手法を提案する。
損失関数と勾配のネスト推定器は偏りがあるため,不偏のマルチレベルモンテカルロ推定器(MLMC)を用いる。
論文 参考訳(メタデータ) (2024-01-30T06:29:41Z) - Unbiased Kinetic Langevin Monte Carlo with Inexact Gradients [0.8749675983608172]
動力学的ランゲヴィンダイナミクスに基づく後進手段の非バイアス化手法を提案する。
提案した推定器は偏りがなく、有限分散となり、中心極限定理を満たす。
以上の結果から、大規模アプリケーションでは、非バイアスアルゴリズムは「ゴールドスタンダード」なハミルトニアン・モンテカルロよりも2~3桁効率が良いことが示された。
論文 参考訳(メタデータ) (2023-11-08T21:19:52Z) - Scalable method for Bayesian experimental design without integrating
over posterior distribution [0.0]
実験問題のA-最適ベイズ設計における計算効率について検討する。
A-最適性はベイズの実験設計に広く用いられ、容易に解釈できる基準である。
本研究は, A-Optimal 実験設計における新しい可能性のないアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:40:43Z) - Heavy-tailed Streaming Statistical Estimation [58.70341336199497]
ストリーミング$p$のサンプルから重み付き統計推定の課題を考察する。
そこで我々は,傾きの雑音に対して,よりニュアンスな条件下での傾きの傾きの低下を設計し,より詳細な解析を行う。
論文 参考訳(メタデータ) (2021-08-25T21:30:27Z) - High-probability Bounds for Non-Convex Stochastic Optimization with
Heavy Tails [55.561406656549686]
我々は、勾配推定が末尾を持つ可能性のある一階アルゴリズムを用いたヒルベルト非最適化を考える。
本研究では, 勾配, 運動量, 正規化勾配勾配の収束を高確率臨界点に収束させることと, 円滑な損失に対する最もよく知られた繰り返しを示す。
論文 参考訳(メタデータ) (2021-06-28T00:17:01Z) - Nearest Neighbour Based Estimates of Gradients: Sharp Nonasymptotic
Bounds and Applications [0.6445605125467573]
勾配推定は統計学と学習理論において重要である。
ここでは古典的な回帰設定を考えると、実値の正方形可積分 r.v.$Y$ が予測される。
代替推定法で得られた値に対して, 漸近的境界が改良されることを証明した。
論文 参考訳(メタデータ) (2020-06-26T15:19:43Z) - Unbiased MLMC stochastic gradient-based optimization of Bayesian
experimental designs [4.112293524466434]
実験的な設計パラメータに対する期待情報ゲインの勾配は、ネスト予測によって与えられる。
我々は,期待される情報ゲインの勾配を,期待される$ell$-norm,期待されるサンプル当たりの計算コストで推定するモンテカルロ推定器を導入する。
論文 参考訳(メタデータ) (2020-05-18T01:02:31Z) - SUMO: Unbiased Estimation of Log Marginal Probability for Latent
Variable Models [80.22609163316459]
無限級数のランダム化トランケーションに基づく潜在変数モデルに対して、ログ境界確率の非バイアス推定器とその勾配を導入する。
推定器を用いてトレーニングしたモデルは、同じ平均計算コストに対して、標準的な重要度サンプリングに基づくアプローチよりも優れたテストセット確率を与えることを示す。
論文 参考訳(メタデータ) (2020-04-01T11:49:30Z) - Estimating Gradients for Discrete Random Variables by Sampling without
Replacement [93.09326095997336]
我々は、置換のないサンプリングに基づいて、離散確率変数に対する期待値の偏りのない推定器を導出する。
推定器は3つの異なる推定器のラオ・ブラックウェル化として導出可能であることを示す。
論文 参考訳(メタデータ) (2020-02-14T14:15:18Z) - Distributionally Robust Bayesian Quadrature Optimization [60.383252534861136]
確率分布が未知な分布の不確実性の下でBQOについて検討する。
標準的なBQOアプローチは、固定されたサンプル集合が与えられたときの真の期待目標のモンテカルロ推定を最大化する。
この目的のために,新しい後方サンプリングに基づくアルゴリズム,すなわち分布的に堅牢なBQO(DRBQO)を提案する。
論文 参考訳(メタデータ) (2020-01-19T12:00:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。