論文の概要: The computational asymptotics of Gaussian variational inference and the
Laplace approximation
- arxiv url: http://arxiv.org/abs/2104.05886v3
- Date: Wed, 5 Jul 2023 22:42:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 18:59:16.073370
- Title: The computational asymptotics of Gaussian variational inference and the
Laplace approximation
- Title(参考訳): ガウス変分推論の計算漸近性とラプラス近似
- Authors: Zuheng Xu, Trevor Campbell
- Abstract要約: ガウス族との変分推論の凸性について理論的に解析する。
CSVIとCSVの両方の大規模実データにより、各最適化問題のグローバルな最適解が得られる可能性が向上することを示す。
- 参考スコア(独自算出の注目度): 19.366538729532856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gaussian variational inference and the Laplace approximation are popular
alternatives to Markov chain Monte Carlo that formulate Bayesian posterior
inference as an optimization problem, enabling the use of simple and scalable
stochastic optimization algorithms. However, a key limitation of both methods
is that the solution to the optimization problem is typically not tractable to
compute; even in simple settings the problem is nonconvex. Thus, recently
developed statistical guarantees -- which all involve the (data) asymptotic
properties of the global optimum -- are not reliably obtained in practice. In
this work, we provide two major contributions: a theoretical analysis of the
asymptotic convexity properties of variational inference with a Gaussian family
and the maximum a posteriori (MAP) problem required by the Laplace
approximation; and two algorithms -- consistent Laplace approximation (CLA) and
consistent stochastic variational inference (CSVI) -- that exploit these
properties to find the optimal approximation in the asymptotic regime. Both CLA
and CSVI involve a tractable initialization procedure that finds the local
basin of the optimum, and CSVI further includes a scaled gradient descent
algorithm that provably stays locally confined to that basin. Experiments on
nonconvex synthetic and real-data examples show that compared with standard
variational and Laplace approximations, both CSVI and CLA improve the
likelihood of obtaining the global optimum of their respective optimization
problems.
- Abstract(参考訳): ガウス変分推論とラプラス近似はマルコフ連鎖モンテカルロの代用として人気があり、ベイジアン後部推論を最適化問題として定式化し、単純でスケーラブルな確率最適化アルゴリズムの使用を可能にする。
しかし、両方の方法の鍵となる制限は、最適化問題の解は通常計算が難しく、単純な設定でも問題は凸でないことである。
このように、最近開発された統計的保証は、すべて(データ)漸近的性質を含むが、実際には確実には得られない。
本研究は,ガウス族における変分推論の漸近的凸特性とラプラス近似によって求められる最大後続(map)問題に関する理論的解析と,これらの性質を利用して漸近的構造における最適近似を求める2つのアルゴリズムであるconsistance laplace approximation (cla) とconsistant stochastic variational inference (csvi) の2つの大きな貢献を提供する。
cla と csvi はともに最適の局所的な盆地を見つける移動可能な初期化手順を含み、csvi はさらに局所的にその盆地に閉じ込められるようなスケールド勾配降下アルゴリズムを含んでいる。
非凸合成および実データ例の実験では、標準変分法およびラプラス近似と比較すると、CSVIとCLAはそれぞれの最適化問題の大域的最適値を得る可能性を向上させる。
関連論文リスト
- Independently-Normalized SGD for Generalized-Smooth Nonconvex Optimization [19.000530691874516]
我々は、多くの非機械学習問題が従来の非スムーズな非スムーズな状態を超えるような条件を満たすことを示した。
独立サンプリングと正規化を利用する独立正規化勾配降下アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-17T21:52:00Z) - Low-Rank Extragradient Methods for Scalable Semidefinite Optimization [0.0]
この問題が低ランクの解を許容する高次元かつ高可算な設定に焦点をあてる。
これらの条件下では、よく知られた過次法が制約付き最適化問題の解に収束することを示す理論的結果がいくつか提示される。
論文 参考訳(メタデータ) (2024-02-14T10:48:00Z) - Accelerated stochastic approximation with state-dependent noise [7.4648480208501455]
勾配観測における2次雑音に対する一般仮定の下での滑らかな凸最適化問題を考察する。
このような問題は、統計学におけるよく知られた一般化された線形回帰問題において、様々な応用において自然に発生する。
SAGDとSGEは、適切な条件下で、最適収束率を達成することを示す。
論文 参考訳(メタデータ) (2023-07-04T06:06:10Z) - Fast Computation of Optimal Transport via Entropy-Regularized Extragradient Methods [75.34939761152587]
2つの分布間の最適な輸送距離の効率的な計算は、様々な応用を促進するアルゴリズムとして機能する。
本稿では,$varepsilon$加法精度で最適な輸送を計算できるスケーラブルな一階最適化法を提案する。
論文 参考訳(メタデータ) (2023-01-30T15:46:39Z) - A Fast and Convergent Proximal Algorithm for Regularized Nonconvex and
Nonsmooth Bi-level Optimization [26.68351521813062]
既存のバイレベルアルゴリズムは、非滑らかまたは超滑らかな正規化器を扱えない。
本稿では,包括的機械学習アプリケーションを高速化するために,暗黙差分法(AID)が有効であることを示す。
論文 参考訳(メタデータ) (2022-03-30T18:53:04Z) - Faster Algorithm and Sharper Analysis for Constrained Markov Decision
Process [56.55075925645864]
制約付き意思決定プロセス (CMDP) の問題点について検討し, エージェントは, 複数の制約を条件として, 期待される累積割引報酬を最大化することを目的とする。
新しいユーティリティ・デュアル凸法は、正規化ポリシー、双対正則化、ネステロフの勾配降下双対という3つの要素の新たな統合によって提案される。
これは、凸制約を受ける全ての複雑性最適化に対して、非凸CMDP問題が$mathcal O (1/epsilon)$の低い境界に達する最初の実演である。
論文 参考訳(メタデータ) (2021-10-20T02:57:21Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Recent Theoretical Advances in Non-Convex Optimization [56.88981258425256]
近年、深層ネットワークにおける非最適化アルゴリズムの解析やデータ問題への関心が高まっており、非最適化のための理論的最適化アルゴリズムの最近の結果の概要を概説する。
論文 参考訳(メタデータ) (2020-12-11T08:28:51Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Adaptive First-and Zeroth-order Methods for Weakly Convex Stochastic
Optimization Problems [12.010310883787911]
我々は、弱凸(おそらく非滑らかな)最適化問題の重要なクラスを解くための、適応的な段階的な新しい手法の族を解析する。
実験結果から,提案アルゴリズムが0次勾配降下と設計変動を経験的に上回ることを示す。
論文 参考訳(メタデータ) (2020-05-19T07:44:52Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。