論文の概要: Global convergence of optimized adaptive importance samplers
- arxiv url: http://arxiv.org/abs/2201.00409v2
- Date: Sun, 28 Jan 2024 12:15:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 01:15:03.635333
- Title: Global convergence of optimized adaptive importance samplers
- Title(参考訳): 最適化適応重要サンプラーのグローバル収束
- Authors: \"Omer Deniz Akyildiz
- Abstract要約: 我々は,モンテカルロを一般提案と統合するために最適化された適応的重要度サンプリング器 (OAIS) を解析した。
我々は、提案に対する$chi2$-divergenceの大域的勾配に対する漸近的境界を導出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We analyze the optimized adaptive importance sampler (OAIS) for performing
Monte Carlo integration with general proposals. We leverage a classical result
which shows that the bias and the mean-squared error (MSE) of the importance
sampling scales with the $\chi^2$-divergence between the target and the
proposal and develop a scheme which performs global optimization of
$\chi^2$-divergence. While it is known that this quantity is convex for
exponential family proposals, the case of the general proposals has been an
open problem. We close this gap by utilizing the nonasymptotic bounds for
stochastic gradient Langevin dynamics (SGLD) for the global optimization of
$\chi^2$-divergence and derive nonasymptotic bounds for the MSE by leveraging
recent results from non-convex optimization literature. The resulting AIS
schemes have explicit theoretical guarantees that are uniform-in-time.
- Abstract(参考訳): 一般提案とモンテカルロ統合を行うために最適化された適応的重要サンプラー(oais)を解析した。
そこで,本研究では,提案手法と目標値と提案値との間の$\chi^2$-divergenceを用いて,サンプリング重要度の平均二乗誤差(mse)とバイアスをスケールし,$\chi^2$-divergenceのグローバル最適化を行うスキームを開発した。
この量が指数関数的家族提案の凸であることは知られているが、一般提案のケースは公然とした問題である。
確率勾配ランゲヴィン力学(SGLD)の漸近境界を$\chi^2$-divergence の大域最適化に利用し、非凸最適化文献の最近の結果を利用して MSE の漸近境界を導出することにより、このギャップを埋める。
結果のAISスキームは、一様時間である明確な理論的保証を有する。
関連論文リスト
- Diffusion Stochastic Optimization for Min-Max Problems [33.73046548872663]
楽観的勾配法はミニマックス最適化問題に対処するのに有用である。
従来のバージョンでは大きなバッチサイズが必要であり,Samevareps-generativeOGOGと呼ばれる新しい定式化を導入,解析する。
論文 参考訳(メタデータ) (2024-01-26T01:16:59Z) - Generalizing Gaussian Smoothing for Random Search [23.381986209234164]
ガウススムースティング(英: Gaussian smoothing、GS)は、現在のベンチマークの摂動を用いて対象の勾配を推定する微分自由最適化アルゴリズムである。
そこで本研究では,MSEが比較的小さいような分布の誤差を最小限に抑えた摂動分布を選択することを提案する。
論文 参考訳(メタデータ) (2022-11-27T04:42:05Z) - Optimizing Information-theoretical Generalization Bounds via Anisotropic
Noise in SGLD [73.55632827932101]
SGLDにおけるノイズ構造を操作することにより,情報理論の一般化を最適化する。
低経験的リスクを保証するために制約を課すことで、最適なノイズ共分散が期待される勾配共分散の平方根であることを証明する。
論文 参考訳(メタデータ) (2021-10-26T15:02:27Z) - Faster Algorithm and Sharper Analysis for Constrained Markov Decision
Process [56.55075925645864]
制約付き意思決定プロセス (CMDP) の問題点について検討し, エージェントは, 複数の制約を条件として, 期待される累積割引報酬を最大化することを目的とする。
新しいユーティリティ・デュアル凸法は、正規化ポリシー、双対正則化、ネステロフの勾配降下双対という3つの要素の新たな統合によって提案される。
これは、凸制約を受ける全ての複雑性最適化に対して、非凸CMDP問題が$mathcal O (1/epsilon)$の低い境界に達する最初の実演である。
論文 参考訳(メタデータ) (2021-10-20T02:57:21Z) - Momentum Accelerates the Convergence of Stochastic AUPRC Maximization [80.8226518642952]
高精度リコール曲線(AUPRC)に基づく領域の最適化について検討し,不均衡なタスクに広く利用されている。
我々は、$O (1/epsilon4)$のより優れた反復による、$epsilon$定常解を見つけるための新しい運動量法を開発する。
また,O(1/epsilon4)$と同じ複雑さを持つ適応手法の新たなファミリを設計し,実際により高速な収束を享受する。
論文 参考訳(メタデータ) (2021-07-02T16:21:52Z) - Debiasing a First-order Heuristic for Approximate Bi-level Optimization [38.068090269482425]
近似バイレベル最適化(ABLO)は、数値的な(インナーレベルの)最適化ループを含む(外部レベルの)最適化問題からなる。
FOMの収束性に関する理論的理解の欠如がある。
本稿では,メモリの複雑さを一定に保った非バイアスなFOMを$r$の関数として提案する。
論文 参考訳(メタデータ) (2021-06-04T13:46:48Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - Revisiting SGD with Increasingly Weighted Averaging: Optimization and
Generalization Perspectives [50.12802772165797]
平均化手法は、全ての反復解を一つの解に結合する。
実験は、他の平均化方式と比較して、トレードオフと平均化の有効性を示した。
論文 参考訳(メタデータ) (2020-03-09T18:14:00Z) - Better Theory for SGD in the Nonconvex World [2.6397379133308214]
大規模な非最適化問題は、現代の機械学習ではユビキタスである。
我々は, 広範囲の合成ミニバッチサイズがグラディエントDescent (SG) 問題に与える影響について実験を行った。
論文 参考訳(メタデータ) (2020-02-09T09:56:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。