論文の概要: Quantitative Understanding of VAE as a Non-linearly Scaled Isometric
Embedding
- arxiv url: http://arxiv.org/abs/2007.15190v3
- Date: Sat, 12 Jun 2021 04:51:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 13:39:24.116524
- Title: Quantitative Understanding of VAE as a Non-linearly Scaled Isometric
Embedding
- Title(参考訳): 非線形等尺性埋め込みとしてのVAEの定量化
- Authors: Akira Nakagawa, Keizo Kato, Taiji Suzuki
- Abstract要約: 変分オートエンコーダ(VAE)は、各入力データに対応する潜伏変数の後方パラメータを推定する。
本稿では,VAEの微分幾何学的および情報理論的解釈を通じて,VAEの特性を定量的に理解する。
- 参考スコア(独自算出の注目度): 52.48298164494608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational autoencoder (VAE) estimates the posterior parameters (mean and
variance) of latent variables corresponding to each input data. While it is
used for many tasks, the transparency of the model is still an underlying
issue. This paper provides a quantitative understanding of VAE property through
the differential geometric and information-theoretic interpretations of VAE.
According to the Rate-distortion theory, the optimal transform coding is
achieved by using an orthonormal transform with PCA basis where the transform
space is isometric to the input. Considering the analogy of transform coding to
VAE, we clarify theoretically and experimentally that VAE can be mapped to an
implicit isometric embedding with a scale factor derived from the posterior
parameter. As a result, we can estimate the data probabilities in the input
space from the prior, loss metrics, and corresponding posterior parameters, and
further, the quantitative importance of each latent variable can be evaluated
like the eigenvalue of PCA.
- Abstract(参考訳): 変分オートエンコーダ(VAE)は、各入力データに対応する潜伏変数の後方パラメータ(平均と分散)を推定する。
多くのタスクで使用されるが、モデルの透明性は依然として根本的な問題である。
本稿では,VAEの微分幾何学的および情報理論的解釈によるVAE特性の定量的理解を提供する。
レートゆらぎ理論によれば、最適変換符号化は、変換空間が入力に同型であるpca基底を持つ正規直交変換を用いることによって達成される。
VAEへの変換符号化の類似性を考慮すると、VAEは後続パラメータから導出されるスケール係数で暗黙の等尺埋め込みにマッピング可能であることを理論的および実験的に明らかにする。
その結果、入力空間におけるデータ確率を、先行値、損失指標、およびそれに対応する後続パラメータから推定することができ、さらにPCAの固有値と同様に、各潜伏変数の量的重要性を評価することができる。
関連論文リスト
- Half-VAE: An Encoder-Free VAE to Bypass Explicit Inverse Mapping [5.212606755867746]
推論と逆問題(inference)と逆問題(inverse problem)は密接に関連する概念であり、どちらも基本的には未知の原因や観測データからのパラメータの推論を含む。
本研究では,独立成分分析(ICA)などの逆問題に対するVAEの可能性を探る。
他のVAEベースのICAメソッドとは異なり、このアプローチはVAEアーキテクチャのエンコーダを捨て、潜在変数を直接トレーニング可能なパラメータとして設定する。
論文 参考訳(メタデータ) (2024-09-06T09:11:15Z) - Poisson Variational Autoencoder [0.0]
変分オートエンコーダ(VAE)はベイズ推定を用いて感覚入力を解釈する。
本稿では,予測符号化の原理と,インプットを離散スパイク数にエンコードするVAEを組み合わせた新しいアーキテクチャを開発する。
我々の研究は、脳のような感覚処理を研究するための解釈可能な計算フレームワークを提供する。
論文 参考訳(メタデータ) (2024-05-23T12:02:54Z) - Matching aggregate posteriors in the variational autoencoder [0.5759862457142761]
変分オートエンコーダ(VAE)は、よく研究され、深い、潜伏変数モデル(DLVM)である。
本稿では,VAE に付随する目的関数を改良することにより,VAE の欠点を克服する。
提案手法はEmphaggregate variational autoencoder (AVAE) と命名され,VAEの理論的枠組みに基づいて構築されている。
論文 参考訳(メタデータ) (2023-11-13T19:22:37Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Weight Vector Tuning and Asymptotic Analysis of Binary Linear
Classifiers [82.5915112474988]
本稿では,スカラーによる判別器の分解をパラメータ化することで,ジェネリックバイナリ線形分類器の重みベクトルチューニングを提案する。
また,重みベクトルチューニングは,高推定雑音下での線形判別分析(LDA)の性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2021-10-01T17:50:46Z) - InteL-VAEs: Adding Inductive Biases to Variational Auto-Encoders via
Intermediary Latents [60.785317191131284]
本稿では,潜伏変数の中間集合を用いて,制御可能なバイアスでVAEを学習するための簡易かつ効果的な手法を提案する。
特に、学習した表現に対して、スパーシリティやクラスタリングといった望ましいプロパティを課すことができます。
これにより、InteL-VAEはより優れた生成モデルと表現の両方を学ぶことができる。
論文 参考訳(メタデータ) (2021-06-25T16:34:05Z) - Factor Analysis, Probabilistic Principal Component Analysis, Variational
Inference, and Variational Autoencoder: Tutorial and Survey [5.967999555890417]
因子分析、確率的主成分分析(PCA)、変分推論、変分オートエンコーダ(VAE)に関するチュートリアルおよび調査論文。
彼らは、すべてのデータポイントが低次元の潜伏因子から生成されるか、または引き起こされると仮定する。
推論と生成動作のために、これらのモデルは、データ空間における新しいデータポイントの生成にも使用できる。
論文 参考訳(メタデータ) (2021-01-04T01:29:09Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - tvGP-VAE: Tensor-variate Gaussian Process Prior Variational Autoencoder [0.0]
tvGP-VAEはカーネル関数を使用して相関を明示的にモデル化することができる。
そこで本研究では,どの相関構造を潜在空間で明示的に表現するかの選択が,モデル性能に大きな影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2020-06-08T17:59:13Z) - Asymptotic Analysis of an Ensemble of Randomly Projected Linear
Discriminants [94.46276668068327]
[1]では、ランダムに投影された線形判別式のアンサンブルを用いてデータセットを分類する。
我々は,計算コストのかかるクロスバリデーション推定器の代替として,誤分類確率の一貫した推定器を開発する。
また、実データと合成データの両方で投影次元を調整するための推定器の使用を実証する。
論文 参考訳(メタデータ) (2020-04-17T12:47:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。