論文の概要: Generative Model without Prior Distribution Matching
- arxiv url: http://arxiv.org/abs/2009.11016v1
- Date: Wed, 23 Sep 2020 09:33:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 16:20:31.881022
- Title: Generative Model without Prior Distribution Matching
- Title(参考訳): 事前分布マッチングのない生成モデル
- Authors: Cong Geng, Jia Wang, Li Chen, Zhiyong Gao
- Abstract要約: 変分オートエンコーダ(VAE)とその変分は、いくつかの先行分布を満たすために低次元の潜在表現を学習することによって古典的な生成モデルである。
我々は、先行変数に適合させるのではなく、先行変数が埋め込み分布と一致するように提案する。
- 参考スコア(独自算出の注目度): 26.91643368299913
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational Autoencoder (VAE) and its variations are classic generative
models by learning a low-dimensional latent representation to satisfy some
prior distribution (e.g., Gaussian distribution). Their advantages over GAN are
that they can simultaneously generate high dimensional data and learn latent
representations to reconstruct the inputs. However, it has been observed that a
trade-off exists between reconstruction and generation since matching prior
distribution may destroy the geometric structure of data manifold. To mitigate
this problem, we propose to let the prior match the embedding distribution
rather than imposing the latent variables to fit the prior. The embedding
distribution is trained using a simple regularized autoencoder architecture
which preserves the geometric structure to the maximum. Then an adversarial
strategy is employed to achieve a latent mapping. We provide both theoretical
and experimental support for the effectiveness of our method, which alleviates
the contradiction between topological properties' preserving of data manifold
and distribution matching in latent space.
- Abstract(参考訳): 変分オートエンコーダ(VAE)とその変分は、いくつかの先行分布(例えばガウス分布)を満たすために低次元の潜在表現を学ぶことによって古典的な生成モデルである。
GANに対する彼らの利点は、高次元データを同時に生成し、潜在表現を学習して入力を再構築できることである。
しかし, 先行分布の一致がデータ多様体の幾何学的構造を損なう可能性があるため, 復元と生成の間にトレードオフが存在することが確認されている。
この問題を軽減するため,先行変数を先行変数に適合させるのではなく,先行変数が埋め込み分布と一致するようにすることを提案する。
埋め込み分布は、幾何学的構造を最大に保つ単純な正規化オートエンコーダアーキテクチャを用いて訓練される。
次に、潜在マッピングを達成するために敵戦略を用いる。
本研究では,データ多様体の位相的性質の保存と潜在空間における分布マッチングとの矛盾を緩和する手法の有効性を理論的および実験的に支援する。
関連論文リスト
- Adaptive Learning of the Latent Space of Wasserstein Generative Adversarial Networks [7.958528596692594]
我々は、潜伏ワッサーシュタインガン(LWGAN)と呼ばれる新しい枠組みを提案する。
ワッサーシュタイン自己エンコーダとワッサーシュタイン GANを融合させ、データ多様体の内在次元を適応的に学習できるようにする。
我々は,LWGANが複数のシナリオにおいて,正しい固有次元を識別可能であることを示す。
論文 参考訳(メタデータ) (2024-09-27T01:25:22Z) - Collaborative Heterogeneous Causal Inference Beyond Meta-analysis [68.4474531911361]
異種データを用いた因果推論のための協調的逆確率スコア推定器を提案する。
異質性の増加に伴うメタアナリシスに基づく手法に対して,本手法は有意な改善を示した。
論文 参考訳(メタデータ) (2024-04-24T09:04:36Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Normalizing flow sampling with Langevin dynamics in the latent space [12.91637880428221]
正規化フロー(NF)は、連続生成器を使用して、単純な潜伏分布(例えばガウス分布)をトレーニングデータセットに関連する経験的対象分布にマッピングする。
標準NFは可微分写像を実装しているため、複雑な分布を対象とする場合、病理学的挙動に悩まされることがある。
本稿では,マルコフ連鎖モンテカルロアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-20T09:31:35Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Score Approximation, Estimation and Distribution Recovery of Diffusion
Models on Low-Dimensional Data [68.62134204367668]
本稿では,未知の低次元線形部分空間上でデータをサポートする場合の拡散モデルのスコア近似,推定,分布回復について検討する。
適切に選択されたニューラルネットワークアーキテクチャでは、スコア関数を正確に近似し、効率的に推定することができる。
推定スコア関数に基づいて生成された分布は、データ幾何学構造を捕捉し、データ分布の近傍に収束する。
論文 参考訳(メタデータ) (2023-02-14T17:02:35Z) - An Energy-Based Prior for Generative Saliency [62.79775297611203]
本稿では,情報的エネルギーベースモデルを事前分布として採用する,新たな生成正当性予測フレームワークを提案する。
生成サリエンシモデルを用いて,画像から画素単位の不確実性マップを得ることができ,サリエンシ予測におけるモデル信頼度を示す。
実験結果から, エネルギーベース先行モデルを用いた生成塩分率モデルでは, 精度の高い塩分率予測だけでなく, 人間の知覚と整合した信頼性の高い不確実性マップを実現できることが示された。
論文 参考訳(メタデータ) (2022-04-19T10:51:00Z) - Structure-preserving GANs [6.438897276587413]
分散学習のためのデータ効率フレームワークとして,構造保存型GANを導入する。
我々は、不変判別器空間上のその射影に対して、判別器空間を減少させることができることを示す。
固有群対称性を持つ分布に対する対称性保存GANを構築することで、我々の枠組みを文脈化する。
論文 参考訳(メタデータ) (2022-02-02T16:40:04Z) - Generation of data on discontinuous manifolds via continuous stochastic
non-invertible networks [6.201770337181472]
連続ネットワークを用いて不連続分布を生成する方法を示す。
コスト関数と情報理論の定式化の関係を導出する。
提案手法を合成2次元分布に適用し,不連続分布の再構成と生成の両立を実証する。
論文 参考訳(メタデータ) (2021-12-17T17:39:59Z) - Generalizing Variational Autoencoders with Hierarchical Empirical Bayes [6.273154057349038]
確率的生成モデルのための計算的に安定なフレームワークである階層的経験的ベイズオートエンコーダ(HEBAE)を提案する。
鍵となる貢献は2つであり、まず、符号化分布を階層的に優先することで、再構成損失関数の最小化と過正規化の回避とのトレードオフを適応的にバランスさせることで、利益を得る。
論文 参考訳(メタデータ) (2020-07-20T18:18:39Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。