論文の概要: Non-asymptotic bounds for stochastic optimization with biased noisy
gradient oracles
- arxiv url: http://arxiv.org/abs/2002.11440v2
- Date: Sun, 16 May 2021 11:50:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 14:43:11.126603
- Title: Non-asymptotic bounds for stochastic optimization with biased noisy
gradient oracles
- Title(参考訳): バイアス付き雑音勾配オラクルを用いた確率最適化のための非漸近境界
- Authors: Nirav Bhavsar and Prashanth L.A
- Abstract要約: 関数の測定値が推定誤差を持つ設定を捉えるために,バイアス付き勾配オラクルを導入する。
提案するオラクルは,例えば,独立分散シミュレーションと同一分散シミュレーションのバッチによるリスク計測推定の実践的な状況にある。
- 参考スコア(独自算出の注目度): 8.655294504286635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce biased gradient oracles to capture a setting where the function
measurements have an estimation error that can be controlled through a batch
size parameter. Our proposed oracles are appealing in several practical
contexts, for instance, risk measure estimation from a batch of independent and
identically distributed (i.i.d.) samples, or simulation optimization, where the
function measurements are `biased' due to computational constraints. In either
case, increasing the batch size reduces the estimation error. We highlight the
applicability of our biased gradient oracles in a risk-sensitive reinforcement
learning setting. In the stochastic non-convex optimization context, we analyze
a variant of the randomized stochastic gradient (RSG) algorithm with a biased
gradient oracle. We quantify the convergence rate of this algorithm by deriving
non-asymptotic bounds on its performance. Next, in the stochastic convex
optimization setting, we derive non-asymptotic bounds for the last iterate of a
stochastic gradient descent (SGD) algorithm with a biased gradient oracle.
- Abstract(参考訳): 我々は,関数の測定値がバッチサイズパラメータを介して制御可能な推定誤差を持つような設定をキャプチャするために,バイアスドグラデーションオラクルを導入する。
提案するオラクルは, 計算制約により関数測定が「バイアス」となるような, 独立および同一分布のサンプルのバッチからのリスク計測推定, あるいはシミュレーション最適化など, いくつかの実践的文脈で注目されている。
いずれの場合も、バッチサイズの増加は推定エラーを減らす。
我々は、リスクに敏感な強化学習環境におけるバイアスドグラデーションオラクルの適用性を強調した。
確率的非凸最適化の文脈において、偏りの偏りを持つランダム化確率勾配(RSG)アルゴリズムの変種を解析する。
このアルゴリズムの性能について非漸近境界を導出することにより収束率を定量化する。
次に、確率凸最適化設定において、偏勾配オラクルを持つ確率勾配降下(sgd)アルゴリズムの最後の反復に対する非漸近境界を導出する。
関連論文リスト
- Accelerated stochastic approximation with state-dependent noise [7.4648480208501455]
勾配観測における2次雑音に対する一般仮定の下での滑らかな凸最適化問題を考察する。
このような問題は、統計学におけるよく知られた一般化された線形回帰問題において、様々な応用において自然に発生する。
SAGDとSGEは、適切な条件下で、最適収束率を達成することを示す。
論文 参考訳(メタデータ) (2023-07-04T06:06:10Z) - Sampling from Gaussian Process Posteriors using Stochastic Gradient
Descent [43.097493761380186]
勾配アルゴリズムは線形系を解くのに有効な方法である。
最適値に収束しない場合であっても,勾配降下は正確な予測を導出することを示す。
実験的に、勾配降下は十分に大規模または不条件の回帰タスクにおいて最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-06-20T15:07:37Z) - A Gradient Smoothed Functional Algorithm with Truncated Cauchy Random
Perturbations for Stochastic Optimization [10.820943271350442]
本稿では,雑音の多いコストサンプルに対する期待値であるスムーズな目的関数を最小化するための凸勾配アルゴリズムを提案する。
また,本アルゴリズムは局所最小値への収束を示唆し,レートリリアを回避できることも示している。
論文 参考訳(メタデータ) (2022-07-30T18:50:36Z) - Nonconvex Stochastic Scaled-Gradient Descent and Generalized Eigenvector
Problems [98.34292831923335]
オンライン相関解析の問題から,emphStochastic Scaled-Gradient Descent (SSD)アルゴリズムを提案する。
我々はこれらのアイデアをオンライン相関解析に適用し、局所収束率を正規性に比例した最適な1時間スケールのアルゴリズムを初めて導いた。
論文 参考訳(メタデータ) (2021-12-29T18:46:52Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Optimal Rates for Random Order Online Optimization [60.011653053877126]
敵が損失関数を選択できるカテットガルバー2020onlineについて検討するが、一様にランダムな順序で提示される。
2020onlineアルゴリズムが最適境界を達成し,安定性を著しく向上することを示す。
論文 参考訳(メタデータ) (2021-06-29T09:48:46Z) - High-probability Bounds for Non-Convex Stochastic Optimization with
Heavy Tails [55.561406656549686]
我々は、勾配推定が末尾を持つ可能性のある一階アルゴリズムを用いたヒルベルト非最適化を考える。
本研究では, 勾配, 運動量, 正規化勾配勾配の収束を高確率臨界点に収束させることと, 円滑な損失に対する最もよく知られた繰り返しを示す。
論文 参考訳(メタデータ) (2021-06-28T00:17:01Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Stochastic Compositional Gradient Descent under Compositional
constraints [13.170519806372075]
目的関数と制約関数が凸であり,関数の合成として表される制約最適化問題について検討する。
この問題は、公平な分類/回帰とキューシステムの設計に生じる。
提案手法は最適かつ実現可能な解をほぼ確実に見つけることが保証されている。
論文 参考訳(メタデータ) (2020-12-17T05:38:37Z) - Exploiting Higher Order Smoothness in Derivative-free Optimization and
Continuous Bandits [99.70167985955352]
強凸関数のゼロ次最適化問題について検討する。
予測勾配降下アルゴリズムのランダム化近似を考察する。
その結果,0次アルゴリズムはサンプルの複雑性や問題パラメータの点でほぼ最適であることが示唆された。
論文 参考訳(メタデータ) (2020-06-14T10:42:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。