論文の概要: Robust, Accurate Stochastic Optimization for Variational Inference
- arxiv url: http://arxiv.org/abs/2009.00666v2
- Date: Thu, 3 Sep 2020 15:45:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 00:51:46.615091
- Title: Robust, Accurate Stochastic Optimization for Variational Inference
- Title(参考訳): 変分推論のためのロバスト・高精度確率最適化
- Authors: Akash Kumar Dhaka, Alejandro Catalina, Michael Riis Andersen, M{\aa}ns
Magnusson, Jonathan H. Huggins, Aki Vehtari
- Abstract要約: また, 共通最適化手法は, 問題が適度に大きい場合, 変分近似の精度が低下することを示した。
これらの結果から,基礎となるアルゴリズムをマルコフ連鎖の生成とみなして,より堅牢で正確な最適化フレームワークを開発する。
- 参考スコア(独自算出の注目度): 68.83746081733464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of fitting variational posterior approximations using
stochastic optimization methods. The performance of these approximations
depends on (1) how well the variational family matches the true posterior
distribution,(2) the choice of divergence, and (3) the optimization of the
variational objective. We show that even in the best-case scenario when the
exact posterior belongs to the assumed variational family, common stochastic
optimization methods lead to poor variational approximations if the problem
dimension is moderately large. We also demonstrate that these methods are not
robust across diverse model types. Motivated by these findings, we develop a
more robust and accurate stochastic optimization framework by viewing the
underlying optimization algorithm as producing a Markov chain. Our approach is
theoretically motivated and includes a diagnostic for convergence and a novel
stopping rule, both of which are robust to noisy evaluations of the objective
function. We show empirically that the proposed framework works well on a
diverse set of models: it can automatically detect stochastic optimization
failure or inaccurate variational approximation
- Abstract(参考訳): 確率最適化法を用いて変分後続近似を適合させる問題を考える。
これらの近似の性能は、(1)変動族が真の後続分布とどの程度うまく一致しているか、(2)ばらつきの選択、(3)変動目的の最適化に依存する。
直近の後方が仮定された変分族に属する場合であっても、問題次元が適度に大きい場合、一般的な確率的最適化手法は変分近似を低くすることを示した。
また、これらの手法は様々なモデルタイプで堅牢ではないことも示しています。
これらの知見に動機づけられ,基礎となる最適化アルゴリズムをマルコフ連鎖生成と見なすことにより,より堅牢で正確な確率的最適化フレームワークを開発した。
このアプローチは理論的に動機づけられ、収束の診断と、目的関数のノイズ評価にロバストな新しい停止規則を含んでいる。
提案手法は,確率的最適化の失敗や不正確な変分近似を自動的に検出し,多種多様なモデルに対して有効であることを示す。
関連論文リスト
- A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Bayesian Optimization for Non-Convex Two-Stage Stochastic Optimization Problems [2.9016548477524156]
知識に基づく獲得関数を定式化し,第1段と第2段の変数を協調的に最適化する。
可変型間の寸法と長さの差が2段階アルゴリズムの非効率性をもたらすことを示す。
論文 参考訳(メタデータ) (2024-08-30T16:26:31Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Accelerating Stochastic Probabilistic Inference [1.599072005190786]
変分推論(SVI)は確率モデルの良好な後部近似を求める能力により、ますます魅力的になっている。
最先端のSVIアルゴリズムのほとんど全てが一階最適化に基づいており、しばしば収束率の低下に悩まされている。
我々は二階法と変分推論のギャップを二階法に基づく変分推論手法によって埋める。
論文 参考訳(メタデータ) (2022-03-15T01:19:12Z) - Momentum Accelerates the Convergence of Stochastic AUPRC Maximization [80.8226518642952]
高精度リコール曲線(AUPRC)に基づく領域の最適化について検討し,不均衡なタスクに広く利用されている。
我々は、$O (1/epsilon4)$のより優れた反復による、$epsilon$定常解を見つけるための新しい運動量法を開発する。
また,O(1/epsilon4)$と同じ複雑さを持つ適応手法の新たなファミリを設計し,実際により高速な収束を享受する。
論文 参考訳(メタデータ) (2021-07-02T16:21:52Z) - On the implementation of a global optimization method for mixed-variable
problems [0.30458514384586394]
このアルゴリズムは、グットマンの放射基底関数と、レジスとシューメーカーの計量応答面法に基づいている。
これら2つのアルゴリズムの一般化と改良を目的としたいくつかの修正を提案する。
論文 参考訳(メタデータ) (2020-09-04T13:36:56Z) - Stochastic Optimization Forests [60.523606291705214]
標準的なランダムな森林アルゴリズムのように予測精度を向上させるために分割するのではなく、分割を選択した木を栽培し、下流の意思決定品質を直接最適化することで、森林決定政策の訓練方法を示す。
概略分割基準は、各候補分割に対して正確に最適化された森林アルゴリズムに近い性能を保ちながら、100倍のランニング時間を短縮できることを示す。
論文 参考訳(メタデータ) (2020-08-17T16:56:06Z) - Adaptive First-and Zeroth-order Methods for Weakly Convex Stochastic
Optimization Problems [12.010310883787911]
我々は、弱凸(おそらく非滑らかな)最適化問題の重要なクラスを解くための、適応的な段階的な新しい手法の族を解析する。
実験結果から,提案アルゴリズムが0次勾配降下と設計変動を経験的に上回ることを示す。
論文 参考訳(メタデータ) (2020-05-19T07:44:52Z) - Uncertainty Modelling in Risk-averse Supply Chain Systems Using
Multi-objective Pareto Optimization [0.0]
サプライチェーンモデリングにおける困難なタスクの1つは、不規則な変動に対して堅牢なモデルを構築することである。
我々は、不確実性を扱うためのパレート最適化(Pareto Optimization)という新しい手法を導入し、これらの不確実性のエントロピーをアプリオリ仮定の下で明示的にモデル化することで拘束する。
論文 参考訳(メタデータ) (2020-04-24T21:04:25Z) - Distributionally Robust Bayesian Optimization [121.71766171427433]
そこで本研究では,ゼロ次雑音最適化のための分散ロバストなベイズ最適化アルゴリズム(DRBO)を提案する。
提案アルゴリズムは, 種々の設定において, 線形に頑健な後悔を確実に得る。
提案手法は, 実世界のベンチマークと実世界のベンチマークの両方において, 頑健な性能を示す。
論文 参考訳(メタデータ) (2020-02-20T22:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。