論文の概要: Efficient Semi-Implicit Variational Inference
- arxiv url: http://arxiv.org/abs/2101.06070v1
- Date: Fri, 15 Jan 2021 11:39:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-28 11:18:09.979838
- Title: Efficient Semi-Implicit Variational Inference
- Title(参考訳): 効率的な半単純変分推論
- Authors: Vincent Moens, Hang Ren, Alexandre Maraval, Rasul Tutunov, Jun Wang,
Haitham Ammar
- Abstract要約: 効率的でスケーラブルな半単純外挿 (SIVI) を提案する。
本手法はSIVIの証拠を低勾配値の厳密な推測にマッピングする。
- 参考スコア(独自算出の注目度): 65.07058307271329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose CI-VI an efficient and scalable solver for
semi-implicit variational inference (SIVI). Our method, first, maps SIVI's
evidence lower bound (ELBO) to a form involving a nonlinear functional nesting
of expected values and then develops a rigorous optimiser capable of correctly
handling bias inherent to nonlinear nested expectations using an
extrapolation-smoothing mechanism coupled with gradient sketching. Our
theoretical results demonstrate convergence to a stationary point of the ELBO
in general non-convex settings typically arising when using deep network models
and an order of $O(t^{-\frac{4}{5}})$ gradient-bias-vanishing rate. We believe
these results generalise beyond the specific nesting arising from SIVI to other
forms. Finally, in a set of experiments, we demonstrate the effectiveness of
our algorithm in approximating complex posteriors on various data-sets
including those from natural language processing.
- Abstract(参考訳): 本稿では,半単純変分推論(SIVI)のための効率よくスケーラブルな解法としてCI-VIを提案する。
提案手法は,まずsiviのエビデンス下限(elbo)を,期待値の非線形関数ネストを含む形式にマッピングし,次に勾配スケッチと組み合わされた外挿スモーシング機構を用いて,非線形ネスト期待に固有のバイアスを正しく処理可能な厳密なオプティマイザーを開発する。
本理論は, 深層ネットワークモデルを用いた場合, 一般に発生する非凸状態におけるelboの定常点への収束と,$o(t^{-\frac{4}{5}})$勾配-バイアス-バニッシュレートのオーダーを示す。
これらの結果はSIVIから他の形態への特定の営巣を超えて一般化されていると信じている。
最後に,一連の実験において,自然言語処理を含む各種データセットの複雑な後方を近似するアルゴリズムの有効性を実証する。
関連論文リスト
- Independently-Normalized SGD for Generalized-Smooth Nonconvex Optimization [19.000530691874516]
我々は、多くの非機械学習問題が従来の非スムーズな非スムーズな状態を超えるような条件を満たすことを示した。
独立サンプリングと正規化を利用する独立正規化勾配降下アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-17T21:52:00Z) - Convergence of Implicit Gradient Descent for Training Two-Layer Physics-Informed Neural Networks [3.680127959836384]
暗黙の勾配降下(IGD)は、ある種のマルチスケール問題を扱う場合、共通勾配降下(GD)よりも優れる。
IGDは線形収束速度で大域的に最適解を収束することを示す。
論文 参考訳(メタデータ) (2024-07-03T06:10:41Z) - Variational Bayesian Optimal Experimental Design with Normalizing Flows [0.837622912636323]
変分OEDは、可能性評価なしでEIGの下位境界を推定する。
本稿では,vOEDにおける変分分布を表現するための正規化フローについて紹介する。
その結果,4〜5層の合成により,より低いEIG推定バイアスが得られることがわかった。
論文 参考訳(メタデータ) (2024-04-08T14:44:21Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Gradient-Based Feature Learning under Structured Data [57.76552698981579]
異方性設定では、一般的に使用される球面勾配力学は真の方向を回復できないことがある。
バッチ正規化を連想させる適切な重み正規化は、この問題を軽減することができることを示す。
特に、スパイクモデルの下では、勾配に基づくトレーニングのサンプルの複雑さは情報指数とは独立にできる。
論文 参考訳(メタデータ) (2023-09-07T16:55:50Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Probabilistic Circuits for Variational Inference in Discrete Graphical
Models [101.28528515775842]
変分法による離散的グラフィカルモデルの推論は困難である。
エビデンス・ロウアーバウンド(ELBO)を推定するためのサンプリングに基づく多くの手法が提案されている。
Sum Product Networks (SPN) のような確率的回路モデルのトラクタビリティを活用する新しい手法を提案する。
選択的SPNが表現的変動分布として適していることを示し、対象モデルの対数密度が重み付けされた場合、対応するELBOを解析的に計算可能であることを示す。
論文 参考訳(メタデータ) (2020-10-22T05:04:38Z) - Convex Representation Learning for Generalized Invariance in
Semi-Inner-Product Space [32.442549424823355]
本研究では, 半ノルムにおける多種多様な一般化表現のアルゴリズムを開発し, 先頭の表現子を定式化し, 境界を定式化する。
これにより、正確な予測とともに、我々の実験で確認されているように、表現を効率的かつ効果的に学習することができる。
論文 参考訳(メタデータ) (2020-04-25T18:54:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。