論文の概要: Statistical Regeneration Guarantees of the Wasserstein Autoencoder with
Latent Space Consistency
- arxiv url: http://arxiv.org/abs/2110.03995v1
- Date: Fri, 8 Oct 2021 09:26:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-11 21:50:43.102138
- Title: Statistical Regeneration Guarantees of the Wasserstein Autoencoder with
Latent Space Consistency
- Title(参考訳): 潜在空間一貫性を有するwassersteinオートエンコーダの統計的再生保証
- Authors: Anish Chakrabarty and Swagatam Das
- Abstract要約: We investigated the statistics of Wasserstein Autoencoder (WAE)。
We provide statistics guarantees that WAE achieves the target distribution in the latent space。
本研究は、WAEが潜在法則の形で圧縮された後に再構築できる分布のクラスを示唆している。
- 参考スコア(独自算出の注目度): 14.07437185521097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The introduction of Variational Autoencoders (VAE) has been marked as a
breakthrough in the history of representation learning models. Besides having
several accolades of its own, VAE has successfully flagged off a series of
inventions in the form of its immediate successors. Wasserstein Autoencoder
(WAE), being an heir to that realm carries with it all of the goodness and
heightened generative promises, matching even the generative adversarial
networks (GANs). Needless to say, recent years have witnessed a remarkable
resurgence in statistical analyses of the GANs. Similar examinations for
Autoencoders, however, despite their diverse applicability and notable
empirical performance, remain largely absent. To close this gap, in this paper,
we investigate the statistical properties of WAE. Firstly, we provide
statistical guarantees that WAE achieves the target distribution in the latent
space, utilizing the Vapnik Chervonenkis (VC) theory. The main result,
consequently ensures the regeneration of the input distribution, harnessing the
potential offered by Optimal Transport of measures under the Wasserstein
metric. This study, in turn, hints at the class of distributions WAE can
reconstruct after suffering a compression in the form of a latent law.
- Abstract(参考訳): 変分オートエンコーダ(VAE)の導入は、表現学習モデルの歴史におけるブレークスルーとして記録されている。
独自にいくつかの認定を受けたことに加えて、VAEは直近の後継者の形で一連の発明をフラグ付けすることに成功している。
wasserstein autoencoder (wae)は、その領域の継承者であり、すべての善良さと高揚した生成的約束を持ち、生成的敵対的ネットワーク(gans)さえも一致する。
言うまでもなく、近年はGANの統計分析において顕著な復活が見られる。
しかし、オートエンコーダの同様の試験は、多種多様な適用性と顕著な経験的性能にもかかわらず、ほとんど欠落している。
このギャップを埋めるため,本論文ではwaeの統計特性について検討する。
まず,vapnik chervonenkis(vc)理論を用いて,waeが潜在空間における目標分布を達成することを統計的に保証する。
その結果、入力分布の再生が保証され、ワッサーシュタイン計量の下での測度の最適輸送によって提供されるポテンシャルを利用する。
この研究は、waeが潜在法則の形で圧縮を受けた後に再構築できる分布のクラスを示唆するものである。
関連論文リスト
- Concurrent Density Estimation with Wasserstein Autoencoders: Some
Statistical Insights [20.894503281724052]
ワッサースタインオートエンコーダ(Wasserstein Autoencoders、WAE)は、深層生成モデルの領域における先駆的な力である。
我々の研究は、WAEの背後にある機械の理論的理解を提供する試みである。
論文 参考訳(メタデータ) (2023-12-11T18:27:25Z) - Statistical Guarantees for Variational Autoencoders using PAC-Bayesian
Theory [2.828173677501078]
変分オートエンコーダ(VAE)は機械学習の中心となっている。
この研究は、PAC-ベイジアン理論を用いて、VAEの統計的保証を開発する。
論文 参考訳(メタデータ) (2023-10-07T22:35:26Z) - Symmetric Equilibrium Learning of VAEs [56.56929742714685]
可変オートエンコーダ(VAE)をデコーダ-エンコーダペアとみなし,データ空間内の分布を潜在空間内の分布にマッピングする。
本研究では,エンコーダとデコーダに対して対称なナッシュ均衡学習手法を提案し,データと潜伏分布の両方がサンプリングによってのみアクセス可能な状況下でのVAEの学習を可能にする。
論文 参考訳(メタデータ) (2023-07-19T10:27:34Z) - Exact Non-Oblivious Performance of Rademacher Random Embeddings [79.28094304325116]
本稿では,Rademacherランダムプロジェクションの性能を再検討する。
入力データに関して数値的に鋭く、曖昧でない新しい統計的保証を確立する。
論文 参考訳(メタデータ) (2023-03-21T11:45:27Z) - Be Your Own Neighborhood: Detecting Adversarial Example by the
Neighborhood Relations Built on Self-Supervised Learning [64.78972193105443]
本稿では,予測に有効な新しいAE検出フレームワークを提案する。
AEの異常な関係と拡張バージョンを区別して検出を行う。
表現を抽出し、ラベルを予測するために、既製の自己監視学習(SSL)モデルが使用される。
論文 参考訳(メタデータ) (2022-08-31T08:18:44Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Momentum Contrastive Autoencoder: Using Contrastive Learning for Latent
Space Distribution Matching in WAE [51.09507030387935]
Wasserstein autoencoder (WAE) は、2つの分布が一致することは、このAEの潜在空間が予め指定された事前分布と一致するという制約の下で、単純なオートエンコーダ(AE)損失を最小限にすることと同値であることを示している。
本稿では,この問題を解決する手段として,自己指導型表現学習に有効であることを示すコントラスト学習フレームワークを提案する。
WAEの損失を最適化するために、対照的な学習フレームワークを使用することで、WAEの一般的なアルゴリズムと比較して、より高速に収束し、より安定した最適化が達成できることを示す。
論文 参考訳(メタデータ) (2021-10-19T22:55:47Z) - Generalizing Variational Autoencoders with Hierarchical Empirical Bayes [6.273154057349038]
確率的生成モデルのための計算的に安定なフレームワークである階層的経験的ベイズオートエンコーダ(HEBAE)を提案する。
鍵となる貢献は2つであり、まず、符号化分布を階層的に優先することで、再構成損失関数の最小化と過正規化の回避とのトレードオフを適応的にバランスさせることで、利益を得る。
論文 参考訳(メタデータ) (2020-07-20T18:18:39Z) - To Regularize or Not To Regularize? The Bias Variance Trade-off in
Regularized AEs [10.611727286504994]
AEモデルの生成決定論的品質に及ぼす潜伏剤の影響について検討する。
我々は、FlexAEと呼ばれるモデルが、AEベースの生成モデルのための新しい最先端技術であることを示します。
論文 参考訳(メタデータ) (2020-06-10T14:00:14Z) - Distribution Approximation and Statistical Estimation Guarantees of
Generative Adversarial Networks [82.61546580149427]
GAN(Generative Adversarial Networks)は教師なし学習において大きな成功を収めている。
本稿では,H'older空間における密度データ分布推定のためのGANの近似と統計的保証を提供する。
論文 参考訳(メタデータ) (2020-02-10T16:47:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。