論文の概要: Stochastic Gradient Variational Inference with Price's Gradient Estimator from Bures-Wasserstein to Parameter Space
- arxiv url: http://arxiv.org/abs/2602.18718v1
- Date: Sat, 21 Feb 2026 04:52:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.260632
- Title: Stochastic Gradient Variational Inference with Price's Gradient Estimator from Bures-Wasserstein to Parameter Space
- Title(参考訳): Bures-Wasserstein からパラメータ空間への価格勾配推定器による確率勾配変動推定
- Authors: Kyurae Kim, Qiang Fu, Yi-An Ma, Jacob R. Gardner, Trevor Campbell,
- Abstract要約: ワッサーシュタイン VI (WVI) とブラックボックス VI (BBVI) は測度空間において勾配降下を行う。
We find that WVI's superiority stems from the specific gradient estimator。
我々は,プライス勾配の利用が性能改善の主な原因であることを実証した。
- 参考スコア(独自算出の注目度): 39.80428405222528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For approximating a target distribution given only its unnormalized log-density, stochastic gradient-based variational inference (VI) algorithms are a popular approach. For example, Wasserstein VI (WVI) and black-box VI (BBVI) perform gradient descent in measure space (Bures-Wasserstein space) and parameter space, respectively. Previously, for the Gaussian variational family, convergence guarantees for WVI have shown superiority over existing results for black-box VI with the reparametrization gradient, suggesting the measure space approach might provide some unique benefits. In this work, however, we close this gap by obtaining identical state-of-the-art iteration complexity guarantees for both. In particular, we identify that WVI's superiority stems from the specific gradient estimator it uses, which BBVI can also leverage with minor modifications. The estimator in question is usually associated with Price's theorem and utilizes second-order information (Hessians) of the target log-density. We will refer to this as Price's gradient. On the flip side, WVI can be made more widely applicable by using the reparametrization gradient, which requires only gradients of the log-density. We empirically demonstrate that the use of Price's gradient is the major source of performance improvement.
- Abstract(参考訳): 正規化されていない対数密度のみのターゲット分布を近似するためには、確率勾配に基づく変分推論(VI)アルゴリズムが一般的である。
例えば、ワッサーシュタイン VI (WVI) とブラックボックス VI (BBVI) はそれぞれ測度空間 (Bures-Wasserstein space) とパラメータ空間において勾配降下を行う。
以前は、ガウス変分族に対して、WVI の収束保証は、再パラメータ化勾配を持つブラックボックス VI の既存の結果よりも優れていることが示されており、測度空間のアプローチがいくつかのユニークな利点をもたらすことを示唆している。
しかし,本研究では,このギャップを解消するために,両手法の両手法を同時に実現した。
特に、WVIの優越性は、BBVIが小修正で活用できる特定の勾配推定器に起因していると同定する。
問題の推定子は、通常プライスの定理に関連付けられ、ターゲット対数密度の2階情報(ヘッセン)を利用する。
これをプライスの勾配と呼ぶ。
一方、WVIは、ログ密度の勾配のみを必要とする再パラメータ化勾配を用いることで、より広く適用することができる。
我々は、Priceの勾配の使用がパフォーマンス改善の主要な原因であることを実証的に実証した。
関連論文リスト
- Gradient-based optimization for variational empirical Bayes multiple regression [2.6763498831034043]
勾配に基づく(準ニュートン)手法に基づく代替最適化手法を提案する。
我々はGradVIが同様の予測性能を示し、予測器が高い相関関係にある場合、より少ないイテレーションで収束することを示す。
提案手法は,オープンソースのPythonソフトウェアGradVIに実装されている。
論文 参考訳(メタデータ) (2024-11-21T20:35:44Z) - Neural Gradient Learning and Optimization for Oriented Point Normal
Estimation [53.611206368815125]
本研究では,3次元点雲から勾配ベクトルを一貫した向きで学習し,正規推定を行うためのディープラーニング手法を提案する。
局所平面幾何に基づいて角距離場を学習し、粗勾配ベクトルを洗練する。
本手法は,局所特徴記述の精度と能力の一般化を図りながら,グローバル勾配近似を効率的に行う。
論文 参考訳(メタデータ) (2023-09-17T08:35:11Z) - Practical and Matching Gradient Variance Bounds for Black-Box
Variational Bayesian Inference [8.934639058735812]
BBVI は勾配降下文学で用いられる$ABC$条件に対応する整合性を満たすことを示す。
また,平均場パラメタライゼーションのばらつきは,次元依存性が良好であることを示す。
論文 参考訳(メタデータ) (2023-03-18T19:07:14Z) - GradViT: Gradient Inversion of Vision Transformers [83.54779732309653]
我々は,視力変換器(ViT)の勾配に基づく逆攻撃に対する脆弱性を実証する。
自然に見える画像にランダムノイズを最適化するGradViTという手法を提案する。
元の(隠された)データに対する前例のない高い忠実さと近接性を観察する。
論文 参考訳(メタデータ) (2022-03-22T17:06:07Z) - GBHT: Gradient Boosting Histogram Transform for Density Estimation [73.94900378709023]
textitGradient Boosting Histogram Transform (GBHT) と呼ばれる密度推定アルゴリズムを提案する。
そこで本研究では,高揚化がベース学習者の性能向上に寄与する理由を理論的に説明するための最初の試みを行う。
論文 参考訳(メタデータ) (2021-06-10T13:40:28Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。