論文の概要: A Frequentist Statistical Introduction to Variational Inference, Autoencoders, and Diffusion Models
- arxiv url: http://arxiv.org/abs/2510.18777v1
- Date: Tue, 21 Oct 2025 16:25:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:13.921115
- Title: A Frequentist Statistical Introduction to Variational Inference, Autoencoders, and Diffusion Models
- Title(参考訳): 変分推論, オートエンコーダ, 拡散モデルに対する頻度論的統計導入
- Authors: Yen-Chi Chen,
- Abstract要約: 変分推論(VI)は変分オートエンコーダ(VAE)やDDM(Denoising Diffusion Models)のような現代の生成モデルの中心である
我々は、VIが難解なEステップのスケーラブルなソリューションとして現れ、VAEとDDMがこのフレームワークの自然なディープラーニングベースの拡張であることを示す。
- 参考スコア(独自算出の注目度): 0.7106986689736825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Variational Inference (VI) is central to modern generative models like Variational Autoencoders (VAEs) and Denoising Diffusion Models (DDMs), its pedagogical treatment is split across disciplines. In statistics, VI is typically framed as a Bayesian method for posterior approximation. In machine learning, however, VAEs and DDMs are developed from a Frequentist viewpoint, where VI is used to approximate a maximum likelihood estimator. This creates a barrier for statisticians, as the principles behind VAEs and DDMs are hard to contextualize without a corresponding Frequentist introduction to VI. This paper provides that introduction: we explain the theory for VI, VAEs, and DDMs from a purely Frequentist perspective, starting with the classical Expectation-Maximization (EM) algorithm. We show how VI arises as a scalable solution for intractable E-steps and how VAEs and DDMs are natural, deep-learning-based extensions of this framework, thereby bridging the gap between classical statistical inference and modern generative AI.
- Abstract(参考訳): 変分推論(VI)は、変分オートエンコーダ(VAE)やDDM(Denoising Diffusion Models)のような近代的な生成モデルの中心であるが、その教育的処理は分野によって分割される。
統計学において、VI は一般に後続近似のベイズ法として表される。
しかし、機械学習では、VAEとDDMはFrequentistの観点から開発され、VIは最大極大推定器を近似するために使用される。
VAE と DDM の背景にある原則は、VI へのFrequentist の導入を伴わずに、文脈化が難しいためである。
本稿では、VI, VAE, DDMの理論を、古典的な期待-最大化(EM)アルゴリズムから始まり、純粋に周波数論的視点から説明する。
我々は、VIが難解なEステップのスケーラブルなソリューションとして現れ、VAEとDDMがこのフレームワークの自然な深層学習ベースの拡張であることを示す。
関連論文リスト
- Variational Inference for Latent Variable Models in High Dimensions [4.3012765978447565]
平均場変動推定(MFVI)の統計的精度を定量化するための一般的な枠組みを導入する。
我々は、有名なディリクレ割当てモデルのためのMFVIの「作業」を正確に把握する。
非線形な大きな偏差の枠組みを拡張した証明手法は,他の潜伏変数モデルにおけるMFVIの解析の扉を開く。
論文 参考訳(メタデータ) (2025-06-02T17:19:58Z) - Recursive Learning of Asymptotic Variational Objectives [49.69399307452126]
一般状態空間モデル(英: General State-space Model, SSM)は、統計機械学習において広く用いられ、時系列データに対して最も古典的な生成モデルの一つである。
オンラインシーケンシャルIWAE(OSIWAE)は、潜在状態の推測のためのモデルパラメータとマルコフ認識モデルの両方のオンライン学習を可能にする。
このアプローチは、最近提案されたオンライン変分SMC法よりも理論的によく確立されている。
論文 参考訳(メタデータ) (2024-11-04T16:12:37Z) - MMA-DFER: MultiModal Adaptation of unimodal models for Dynamic Facial Expression Recognition in-the-wild [81.32127423981426]
実世界のアプリケーションでは,音声およびビデオデータに基づくマルチモーダル感情認識が重要である。
近年の手法は、強力なマルチモーダルエンコーダの事前学習に自己教師付き学習(SSL)の進歩を活用することに重点を置いている。
SSL-pre-trained disimodal encoders を用いて,この問題に対する異なる視点とマルチモーダル DFER の性能向上について検討する。
論文 参考訳(メタデータ) (2024-04-13T13:39:26Z) - Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - Generative Modeling of Regular and Irregular Time Series Data via Koopman VAEs [50.25683648762602]
モデルの新しい設計に基づく新しい生成フレームワークであるKoopman VAEを紹介する。
クープマン理論に触発され、線形写像を用いて潜在条件事前力学を表現する。
KoVAEは、いくつかの挑戦的な合成および実世界の時系列生成ベンチマークにおいて、最先端のGANおよびVAEメソッドより優れている。
論文 参考訳(メタデータ) (2023-10-04T07:14:43Z) - Amortized Variational Inference: When and Why? [17.1222896154385]
償却変分推論(A-VI)は共通の推論関数を学習し、各観測結果を対応する潜伏変数の近似後方にマッピングする。
A-VI が F-VI の最適解を得るために必要で十分かつ検証可能な潜在変数モデル上で条件を導出する。
論文 参考訳(メタデータ) (2023-07-20T16:45:22Z) - Amortized Variational Inference: A Systematic Review [0.0]
変分推論(VI)の中核となる原理は、複雑な後続確率密度の統計的推論問題を、トラクタブルな最適化問題に変換することである。
従来のVIアルゴリズムは大規模データセットには拡張性がなく、データポイントのアウトオブバウンドを容易に推測できない。
ブラックボックスやアモールタイズVIのようなこの分野の最近の進歩は、これらの問題に対処するのに役立っている。
論文 参考訳(メタデータ) (2022-09-22T09:45:10Z) - Meta-Learning Divergences of Variational Inference [49.164944557174294]
変分推論(VI)は、近似ベイズ推論において重要な役割を果たす。
本稿では,興味ある課題に適した分散度を学習するためのメタ学習アルゴリズムを提案する。
提案手法はガウス混合分布近似の標準VIより優れていることを示す。
論文 参考訳(メタデータ) (2020-07-06T17:43:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。