論文の概要: Variance Constrained Autoencoding
- arxiv url: http://arxiv.org/abs/2005.03807v1
- Date: Fri, 8 May 2020 00:50:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 11:49:14.734510
- Title: Variance Constrained Autoencoding
- Title(参考訳): 可変制約オートエンコーディング
- Authors: D. T. Braithwaite, M. O'Connor, W. B. Kleijn
- Abstract要約: エンコーダの場合、同時に分布制約を強制し、出力歪みを最小化しようとすると、生成的および再構成的品質が低下することを示す。
本稿では,分散制約のみを適用した分散制約付きオートエンコーダ(VCAE)を提案する。
実験の結果,VCAEは,MNISTとCelebAの再構成および生成品質において,ワッサースタインオートエンコーダと変分オートエンコーダを改良することがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent state-of-the-art autoencoder based generative models have an
encoder-decoder structure and learn a latent representation with a pre-defined
distribution that can be sampled from. Implementing the encoder networks of
these models in a stochastic manner provides a natural and common approach to
avoid overfitting and enforce a smooth decoder function. However, we show that
for stochastic encoders, simultaneously attempting to enforce a distribution
constraint and minimising an output distortion leads to a reduction in
generative and reconstruction quality. In addition, attempting to enforce a
latent distribution constraint is not reasonable when performing
disentanglement. Hence, we propose the variance-constrained autoencoder (VCAE),
which only enforces a variance constraint on the latent distribution. Our
experiments show that VCAE improves upon Wasserstein Autoencoder and the
Variational Autoencoder in both reconstruction and generative quality on MNIST
and CelebA. Moreover, we show that VCAE equipped with a total correlation
penalty term performs equivalently to FactorVAE at learning disentangled
representations on 3D-Shapes while being a more principled approach.
- Abstract(参考訳): 最近の最先端オートエンコーダベースの生成モデルは、エンコーダ-デコーダ構造を持ち、サンプル可能な事前定義された分布で潜在表現を学習する。
これらのモデルのエンコーダネットワークを確率的に実装することで、スムーズなデコーダ関数のオーバーフィットを回避し強制するための自然な、一般的なアプローチを提供する。
しかし,確率エンコーダの場合,同時に分布制約を強制し,出力歪みを最小化しようとすると,生成的および再構成的品質が低下することを示す。
さらに, 分散制約を強制しようとすることは, 絡み合いを行う際には妥当ではない。
そこで本研究では,分散制約のみを適用した分散制約付きオートエンコーダ(VCAE)を提案する。
実験の結果,vcae は mnist と celeba の再構成と生成の両方において,wasserstein autoencoder と variational autoencoder を改良した。
さらに,VCAE に全相関ペナルティ項を付与し,FacterVAE と等価に 3D-Shape 上の不整合表現を学習し,より原理化されたアプローチであることを示す。
関連論文リスト
- Continuous Speculative Decoding for Autoregressive Image Generation [33.05392461723613]
連続評価された自己回帰(AR)画像生成モデルは、離散的傾向よりも顕著な優位性を示している。
投機的復号化は大規模言語モデル(LLM)の加速に有効であることが証明された
この研究は離散トークンから連続空間への投機的復号アルゴリズムを一般化する。
論文 参考訳(メタデータ) (2024-11-18T09:19:15Z) - Symmetric Equilibrium Learning of VAEs [56.56929742714685]
可変オートエンコーダ(VAE)をデコーダ-エンコーダペアとみなし,データ空間内の分布を潜在空間内の分布にマッピングする。
本研究では,エンコーダとデコーダに対して対称なナッシュ均衡学習手法を提案し,データと潜伏分布の両方がサンプリングによってのみアクセス可能な状況下でのVAEの学習を可能にする。
論文 参考訳(メタデータ) (2023-07-19T10:27:34Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - Exploiting Diffusion Prior for Real-World Image Super-Resolution [75.5898357277047]
本稿では,事前学習したテキスト・画像拡散モデルにカプセル化された事前知識を視覚的超解像に活用するための新しいアプローチを提案する。
時間認識エンコーダを用いることで、事前学習した合成モデルを変更することなく、有望な復元結果が得られる。
論文 参考訳(メタデータ) (2023-05-11T17:55:25Z) - Denoising Diffusion Error Correction Codes [92.10654749898927]
近年、ニューラルデコーダは古典的デコーダ技術に対する優位性を実証している。
最近の最先端のニューラルデコーダは複雑で、多くのレガシデコーダの重要な反復的スキームが欠如している。
本稿では,任意のブロック長の線形符号のソフトデコードにデノナイズ拡散モデルを適用することを提案する。
論文 参考訳(メタデータ) (2022-09-16T11:00:50Z) - String-based Molecule Generation via Multi-decoder VAE [56.465033997245776]
可変オートエンコーダ(VAE)による文字列型分子生成の問題点について検討する。
本稿では,そのタスクに対するVAEの性能を改善するための,シンプルで効果的なアイデアを提案する。
実験では,提案するVAEモデルを用いて,領域外分布からサンプルを生成する。
論文 参考訳(メタデータ) (2022-08-23T03:56:30Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Sparse aNETT for Solving Inverse Problems with Deep Learning [2.5234156040689237]
逆問題を解決するためのスパース再構成フレームワーク(aNETT)を提案する。
非線形スペーシング変換として機能するオートエンコーダネットワーク$D circ E$をトレーニングする。
スパースCTでは数値的な結果が得られた。
論文 参考訳(メタデータ) (2020-04-20T18:43:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。