論文の概要: Factor Analysis, Probabilistic Principal Component Analysis, Variational
Inference, and Variational Autoencoder: Tutorial and Survey
- arxiv url: http://arxiv.org/abs/2101.00734v1
- Date: Mon, 4 Jan 2021 01:29:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 23:05:06.204944
- Title: Factor Analysis, Probabilistic Principal Component Analysis, Variational
Inference, and Variational Autoencoder: Tutorial and Survey
- Title(参考訳): 因子分析、確率的主成分分析、変分推論、変分オートエンコーダ:チュートリアルとサーベイ
- Authors: Benyamin Ghojogh, Ali Ghodsi, Fakhri Karray, Mark Crowley
- Abstract要約: 因子分析、確率的主成分分析(PCA)、変分推論、変分オートエンコーダ(VAE)に関するチュートリアルおよび調査論文。
彼らは、すべてのデータポイントが低次元の潜伏因子から生成されるか、または引き起こされると仮定する。
推論と生成動作のために、これらのモデルは、データ空間における新しいデータポイントの生成にも使用できる。
- 参考スコア(独自算出の注目度): 5.967999555890417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This is a tutorial and survey paper on factor analysis, probabilistic
Principal Component Analysis (PCA), variational inference, and Variational
Autoencoder (VAE). These methods, which are tightly related, are dimensionality
reduction and generative models. They asssume that every data point is
generated from or caused by a low-dimensional latent factor. By learning the
parameters of distribution of latent space, the corresponding low-dimensional
factors are found for the sake of dimensionality reduction. For their
stochastic and generative behaviour, these models can also be used for
generation of new data points in the data space. In this paper, we first start
with variational inference where we derive the Evidence Lower Bound (ELBO) and
Expectation Maximization (EM) for learning the parameters. Then, we introduce
factor analysis, derive its joint and marginal distributions, and work out its
EM steps. Probabilistic PCA is then explained, as a special case of factor
analysis, and its closed-form solutions are derived. Finally, VAE is explained
where the encoder, decoder and sampling from the latent space are introduced.
Training VAE using both EM and backpropagation are explained.
- Abstract(参考訳): 本稿では、因子分析、確率主成分分析(pca)、変分推論、変分オートエンコーダ(vae)に関するチュートリアルおよび調査論文について述べる。
これらの手法は密接な関係があり、次元の減少と生成モデルである。
彼らは、すべてのデータポイントが低次元の潜在因子から生成されるか、または引き起こされると仮定する。
潜在空間の分布のパラメータを学習することにより、次元性低減のために対応する低次元因子が見つかる。
確率的かつ生成的な振る舞いのために、これらのモデルはデータ空間における新しいデータポイントの生成にも使用できる。
本稿では,まず,パラメータを学習するためのエビデンス下界(ELBO)と期待最大化(EM)を導出する変分推論から始める。
次に、因子分析を導入し、その結合分布と辺縁分布を導出し、そのEMステップを解明する。
確率的PCAは因子分析の特別な場合として説明され、その閉形式解が導出される。
最後に、vaeは、エンコーダ、デコーダ、および潜在空間からのサンプリングが導入される場所を説明する。
EMとバックプロパゲーションの両方を用いたVAEトレーニングについて説明する。
関連論文リスト
- Conformal inference for regression on Riemannian Manifolds [49.7719149179179]
回帰シナリオの予測セットは、応答変数が$Y$で、多様体に存在し、Xで表される共変数がユークリッド空間にあるときに検討する。
我々は、多様体上のこれらの領域の経験的バージョンが、その集団に対するほぼ確実に収束していることを証明する。
論文 参考訳(メタデータ) (2023-10-12T10:56:25Z) - Equivariance Discovery by Learned Parameter-Sharing [153.41877129746223]
データから解釈可能な等価性を発見する方法について検討する。
具体的には、モデルのパラメータ共有方式に対する最適化問題として、この発見プロセスを定式化する。
また,ガウスデータの手法を理論的に解析し,研究された発見スキームとオラクルスキームの間の平均2乗ギャップを限定する。
論文 参考訳(メタデータ) (2022-04-07T17:59:19Z) - Gaussian Determinantal Processes: a new model for directionality in data [10.591948377239921]
本研究では,ガウス DPP のパラメトリック系について,観測点に対するパラメトリック変調の明確な解釈可能な効果について検討する。
パラメータ変調は, 反発構造に方向性を導入することによって観測点に影響を与え, 主方向は最大依存性の方向に対応することを示す。
このモデルにより、主成分分析(PCA)の新たな代替手段が容易に得られ、データが最も拡散する方向を支持する次元削減ツールとなる。
論文 参考訳(メタデータ) (2021-11-19T00:57:33Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Variance Minimization in the Wasserstein Space for Invariant Causal
Prediction [72.13445677280792]
そこで本研究では,ICPで行ったアプローチを,予測器数で線形にスケールする一連の非パラメトリックテストとして再検討する。
これらのテストはそれぞれ、最適輸送理論の道具から導かれる新しい損失関数の最小化に依存している。
我々は,本手法が同定可能な直接原因の集合を回復できるという軽微な仮定の下で証明し,他のベンチマーク因果探索アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2021-10-13T22:30:47Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z) - Quantitative Understanding of VAE as a Non-linearly Scaled Isometric
Embedding [52.48298164494608]
変分オートエンコーダ(VAE)は、各入力データに対応する潜伏変数の後方パラメータを推定する。
本稿では,VAEの微分幾何学的および情報理論的解釈を通じて,VAEの特性を定量的に理解する。
論文 参考訳(メタデータ) (2020-07-30T02:37:46Z) - Controlling for sparsity in sparse factor analysis models: adaptive
latent feature sharing for piecewise linear dimensionality reduction [2.896192909215469]
本稿では,現在潜伏している特徴分解技術の鍵となる限界に対処できる,シンプルでトラクタブルな特徴割り当てモデルを提案する。
適応型因子分析(aFA)と適応型確率的原理成分分析(aPPCA)を応用し,柔軟な構造発見と次元減少を実現する。
APPCAとaFAは、生のMNISTに適用した場合と、オートエンコーダの特徴を解釈する場合の両方において、高いレベルの特徴を推測できることを示す。
論文 参考訳(メタデータ) (2020-06-22T16:09:11Z) - The Random Feature Model for Input-Output Maps between Banach Spaces [6.282068591820945]
ランダム特徴モデルは、カーネルまたは回帰法に対するパラメトリック近似である。
本稿では、入力バナッハ空間を出力バナッハ空間にマッピングする演算子のためのデータ駆動サロゲートとしてランダム特徴モデルを使用する手法を提案する。
論文 参考訳(メタデータ) (2020-05-20T17:41:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。