論文の概要: Importance Weighted Variational Inference without the Reparameterization Trick
- arxiv url: http://arxiv.org/abs/2602.01412v1
- Date: Sun, 01 Feb 2026 19:39:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.772959
- Title: Importance Weighted Variational Inference without the Reparameterization Trick
- Title(参考訳): 再パラメータ化トリックを伴わない重要重み付き変分推論
- Authors: Kamélia Daudel, Minh-Ngoc Tran, Cheng Zhang,
- Abstract要約: 現状のVIMCO勾配推定器は,N$の増加に伴い,信号-雑音比(SNR)が消失することを示す。
本稿では,VIMCO-$star$グラデーション推定器を提案し,既存のVIMCO勾配推定器のSNR崩壊を回避することを示す。
- 参考スコア(独自算出の注目度): 7.6837301319181535
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Importance weighted variational inference (VI) approximates densities known up to a normalizing constant by optimizing bounds that tighten with the number of Monte Carlo samples $N$. Standard optimization relies on reparameterized gradient estimators, which are well-studied theoretically yet restrict both the choice of the data-generating process and the variational approximation. While REINFORCE gradient estimators do not suffer from such restrictions, they lack rigorous theoretical justification. In this paper, we provide the first comprehensive analysis of REINFORCE gradient estimators in importance weighted VI, leveraging this theoretical foundation to diagnose and resolve fundamental deficiencies in current state-of-the-art estimators. Specifically, we introduce and examine a generalized family of variational inference for Monte Carlo objectives (VIMCO) gradient estimators. We prove that state-of-the-art VIMCO gradient estimators exhibit a vanishing signal-to-noise ratio (SNR) as $N$ increases, which prevents effective optimization. To overcome this issue, we propose the novel VIMCO-$\star$ gradient estimator and show that it averts the SNR collapse of existing VIMCO gradient estimators by achieving a $\sqrt{N}$ SNR scaling instead. We demonstrate its superior empirical performance compared to current VIMCO implementations in challenging settings where reparameterized gradients are typically unavailable.
- Abstract(参考訳): 重み付き変分推論 (VI) はモンテカルロのサンプル数(英語版)が$N$であるような境界を最適化することで、正規化定数まで知られている密度を近似する。
標準最適化は、理論上はよく研究されているが、データ生成プロセスの選択と変分近似の両方を制限しているパラメータ化勾配推定器に依存している。
ReINFORCE勾配推定器はそのような制限に悩まされないが、厳密な理論的正当化は欠如している。
本稿では,REINFORCE 勾配推定器の重み付けを重要視した最初の包括的解析を行い,この理論の基盤を利用して現状技術評価器の基本的な欠陥を診断・解決する。
具体的には,モンテカルロ目標(VIMCO)勾配推定器の変分推定を一般化した家系を紹介し,検討する。
我々は、最先端のVIMCO勾配推定器が、$N$の増加に伴って消滅する信号-雑音比(SNR)を示すことを証明し、効率的な最適化を防止する。
この問題を解決するために、新しいVIMCO-$\star$勾配推定器を提案し、代わりに$\sqrt{N}$ SNRスケーリングをすることで既存のVIMCO勾配推定器のSNR崩壊を回避することを示す。
再パラメータ化勾配が典型的には利用できないような困難な環境では、現在のVIMCO実装よりも優れた経験的性能を示す。
関連論文リスト
- Stein-Rule Shrinkage for Stochastic Gradient Estimation in High Dimensions [0.0]
高次元設定では、偏りのない推定子は一般に二次的損失の下では許容できない。
我々は、安定な制限された推定器に対して雑音の多いミニバッチ勾配を適応的に収縮する縮小推定器を構築する。
この推定器は、誤差損失下での標準勾配を均一に支配し、古典的決定論的な意味では最小値最適であることを示す。
論文 参考訳(メタデータ) (2026-02-02T08:01:13Z) - Low-Rank Curvature for Zeroth-Order Optimization in LLM Fine-Tuning [8.349781300731225]
LOREN (curvature-aware zeroth-order (ZO) optimization method for fine-tuning large language model (LLMs)) を紹介する。
乱摂動を用いた有限差分による勾配推定を行う既存のZO法は、しばしば高いばらつきと準最適探索方向に悩まされる。
i) 勾配推定のための異方性摂動分布を適応的に推定し, (ii) 低ランクブロック対角前処理器で曲率を計測し, (iii) ばらつきを抑えるためにREINFORCEスタンス・ワン・アウト(RLOO) 勾配推定器を適用することにより, これらの課題に対処する。
論文 参考訳(メタデータ) (2025-11-11T08:34:09Z) - On the Optimal Construction of Unbiased Gradient Estimators for Zeroth-Order Optimization [57.179679246370114]
既存の手法の潜在的な制限は、ステップサイズが提案されない限り、ほとんどの摂動推定器に固有のバイアスである。
本稿では, 良好な構成を維持しつつ, バイアスを排除した非バイアス勾配スケーリング推定器のファミリーを提案する。
論文 参考訳(メタデータ) (2025-10-22T18:25:43Z) - From Noisy Traces to Stable Gradients: Bias-Variance Optimized Preference Optimization for Aligning Large Reasoning Models [90.45197506653341]
大規模推論モデルは最終回答を生成する前に中間的推論トレースを生成する。
LRMと人間の好みの整合性は、モデルデプロイメントにとって重要な前提条件であり、まだ過小評価されていない。
共通の回避策は1つのサンプル軌道を最適化し、トレースサンプリングからかなり勾配のばらつきをもたらす。
論文 参考訳(メタデータ) (2025-10-06T17:58:01Z) - Quantum Subgradient Estimation for Conditional Value-at-Risk Optimization [0.0]
条件付きバリュー・アット・リスク(CVaR)は金融における主要なテールリスク指標である。
本稿では,振幅推定に基づくCVaR最小化のための量子下降オラクルを解析する。
論文 参考訳(メタデータ) (2025-10-06T12:09:43Z) - Gradient Normalization Provably Benefits Nonconvex SGD under Heavy-Tailed Noise [60.92029979853314]
重み付き雑音下でのグラディエントDescence(SGD)の収束を確実にする上での勾配正規化とクリッピングの役割について検討する。
我々の研究は、重尾雑音下でのSGDの勾配正規化の利点を示す最初の理論的証拠を提供する。
我々は、勾配正規化とクリッピングを取り入れた加速SGD変種を導入し、さらに重み付き雑音下での収束率を高めた。
論文 参考訳(メタデータ) (2024-10-21T22:40:42Z) - Model-Based Reparameterization Policy Gradient Methods: Theory and
Practical Algorithms [88.74308282658133]
Reization (RP) Policy Gradient Methods (PGM) は、ロボット工学やコンピュータグラフィックスにおける連続的な制御タスクに広く採用されている。
近年の研究では、長期強化学習問題に適用した場合、モデルベースRP PGMはカオス的かつ非滑らかな最適化環境を経験する可能性があることが示されている。
本稿では,長期モデルアンロールによる爆発的分散問題を緩和するスペクトル正規化法を提案する。
論文 参考訳(メタデータ) (2023-10-30T18:43:21Z) - Heavy-tailed Streaming Statistical Estimation [58.70341336199497]
ストリーミング$p$のサンプルから重み付き統計推定の課題を考察する。
そこで我々は,傾きの雑音に対して,よりニュアンスな条件下での傾きの傾きの低下を設計し,より詳細な解析を行う。
論文 参考訳(メタデータ) (2021-08-25T21:30:27Z) - Unbiased Gradient Estimation for Distributionally Robust Learning [2.1777837784979277]
分散的に堅牢な学習(DRL)に基づく新しいアプローチを検討し、内部問題に勾配降下を適用します。
本アルゴリズムはマルチレベルモンテカルロランダム化により勾配勾配を効率的に推定する。
論文 参考訳(メタデータ) (2020-12-22T21:35:03Z) - On Signal-to-Noise Ratio Issues in Variational Inference for Deep
Gaussian Processes [55.62520135103578]
重み付き変分推論を用いたDGP(Deep Gaussian Processs)の訓練で用いられる勾配推定は,信号-雑音比(SNR)問題の影響を受けやすいことを示す。
DGPモデルの予測性能が一貫した改善につながることを示す。
論文 参考訳(メタデータ) (2020-11-01T14:38:02Z) - Optimal Variance Control of the Score Function Gradient Estimator for
Importance Weighted Bounds [12.75471887147565]
本稿では,重要重み付き変動境界(IWAE)のスコア関数勾配推定器の新しい結果を紹介する。
我々は、大きな$K$の極限において、推定子のSignal-to-Noise比(SNR)が$sqrtK$として大きくなるように制御変数を選択することができることを証明した。
論文 参考訳(メタデータ) (2020-08-05T08:41:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。