論文の概要: Particle-based Variational Inference with Preconditioned Functional
Gradient Flow
- arxiv url: http://arxiv.org/abs/2211.13954v2
- Date: Tue, 18 Apr 2023 07:58:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 18:14:46.987674
- Title: Particle-based Variational Inference with Preconditioned Functional
Gradient Flow
- Title(参考訳): プレコンディショニング機能勾配流を用いた粒子ベース変分推定
- Authors: Hanze Dong, Xi Wang, Yong Lin, Tong Zhang
- Abstract要約: プレコンディション付き関数勾配流(PFG)と呼ばれる新しい粒子ベース変分推論アルゴリズムを提案する。
PFGはStein variational gradient descent (SVGD)に対していくつかの利点がある
ニューラルネットワークのような非線形関数クラスは勾配流を推定するために組み込むことができる。
- 参考スコア(独自算出の注目度): 13.519223374081648
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Particle-based variational inference (VI) minimizes the KL divergence between
model samples and the target posterior with gradient flow estimates. With the
popularity of Stein variational gradient descent (SVGD), the focus of
particle-based VI algorithms has been on the properties of functions in
Reproducing Kernel Hilbert Space (RKHS) to approximate the gradient flow.
However, the requirement of RKHS restricts the function class and algorithmic
flexibility. This paper offers a general solution to this problem by
introducing a functional regularization term that encompasses the RKHS norm as
a special case. This allows us to propose a new particle-based VI algorithm
called preconditioned functional gradient flow (PFG). Compared to SVGD, PFG has
several advantages. It has a larger function class, improved scalability in
large particle-size scenarios, better adaptation to ill-conditioned
distributions, and provable continuous-time convergence in KL divergence.
Additionally, non-linear function classes such as neural networks can be
incorporated to estimate the gradient flow. Our theory and experiments
demonstrate the effectiveness of the proposed framework.
- Abstract(参考訳): 粒子ベース変分推論 (VI) は, モデル試料と対象後部とのKL分散を勾配流の推定値で最小化する。
スタイン変分勾配降下(SVGD)の人気により、粒子ベースのVIアルゴリズムの焦点は、勾配流を近似するケルネルヒルベルト空間(RKHS)の関数の性質に向けられている。
しかし、RKHSの要求は関数クラスとアルゴリズムの柔軟性を制限する。
本稿では,RKHS法則を特別な場合として包含する関数正規化項を導入することにより,この問題に対する一般的な解決策を提供する。
これにより,プリコンディショルド機能勾配流(pfg)と呼ばれる新しい粒子ベースのviアルゴリズムを提案することができる。
SVGDと比較すると、PFGにはいくつかの利点がある。
より大きな関数クラスを持ち、大きな粒子サイズのシナリオでのスケーラビリティの向上、不条件分布への適応の改善、KL分散の証明可能な連続時間収束がある。
さらに、勾配流れを推定するためにニューラルネットワークのような非線形関数クラスを組み込むこともできる。
本理論と実験は,提案手法の有効性を示す。
関連論文リスト
- Functional Gradient Flows for Constrained Sampling [29.631753643887237]
本稿では,制約付き関数勾配流(CFG)と呼ばれる,制約付きサンプリングのための新しい関数勾配ParVI法を提案する。
また、領域制約から生じる境界積分項を扱うための新しい数値戦略を提案する。
論文 参考訳(メタデータ) (2024-10-30T16:20:48Z) - Semi-Implicit Functional Gradient Flow [30.32233517392456]
近似系として摂動粒子を用いる関数勾配ParVI法を提案する。
対応する関数勾配流は、スコアマッチングによって推定できるが、強い理論的収束を保証する。
論文 参考訳(メタデータ) (2024-10-23T15:00:30Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Model-Based Reparameterization Policy Gradient Methods: Theory and
Practical Algorithms [88.74308282658133]
Reization (RP) Policy Gradient Methods (PGM) は、ロボット工学やコンピュータグラフィックスにおける連続的な制御タスクに広く採用されている。
近年の研究では、長期強化学習問題に適用した場合、モデルベースRP PGMはカオス的かつ非滑らかな最適化環境を経験する可能性があることが示されている。
本稿では,長期モデルアンロールによる爆発的分散問題を緩和するスペクトル正規化法を提案する。
論文 参考訳(メタデータ) (2023-10-30T18:43:21Z) - Particle-based Variational Inference with Generalized Wasserstein
Gradient Flow [32.37056212527921]
本稿では一般化ワッサーシュタイン勾配勾配(GWG)と呼ばれるParVIフレームワークを提案する。
GWGが強い収束保証を示すことを示す。
また、収束を加速するためにワッサーシュタイン計量を自動的に選択する適応版も提供する。
論文 参考訳(メタデータ) (2023-10-25T10:05:42Z) - Experimental Design for Linear Functionals in Reproducing Kernel Hilbert
Spaces [102.08678737900541]
線形汎関数に対するバイアス認識設計のためのアルゴリズムを提供する。
準ガウス雑音下での固定および適応設計に対する漸近的でない信頼集合を導出する。
論文 参考訳(メタデータ) (2022-05-26T20:56:25Z) - Efficient CDF Approximations for Normalizing Flows [64.60846767084877]
正規化フローの微分同相性に基づいて、閉領域上の累積分布関数(CDF)を推定する。
一般的なフローアーキテクチャとUCIデータセットに関する実験は,従来の推定器と比較して,サンプル効率が著しく向上したことを示している。
論文 参考訳(メタデータ) (2022-02-23T06:11:49Z) - q-RBFNN:A Quantum Calculus-based RBF Neural Network [31.14412266444568]
放射状基底関数ニューラルネットワーク(RBFNN)に対する勾配降下に基づく学習手法を提案する。
提案手法は、ジャクソン微分(Jackson derivative)とも呼ばれるq勾配に基づく。
提案した$q$-RBFNNは最小二乗アルゴリズムの文脈における収束性能について解析する。
論文 参考訳(メタデータ) (2021-06-02T08:27:12Z) - SGB: Stochastic Gradient Bound Method for Optimizing Partition Functions [15.33098084159285]
本稿では,学習環境における分割関数の最適化の問題に対処する。
本稿では,2次代理を持つ分割関数の上界に依存する有界偏化アルゴリズムの変種を提案する。
論文 参考訳(メタデータ) (2020-11-03T04:42:51Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。