論文の概要: AE-OT-GAN: Training GANs from data specific latent distribution
- arxiv url: http://arxiv.org/abs/2001.03698v2
- Date: Mon, 27 Jan 2020 15:25:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 09:44:37.340604
- Title: AE-OT-GAN: Training GANs from data specific latent distribution
- Title(参考訳): AE-OT-GAN:データ固有の潜伏分布からGANを訓練する
- Authors: Dongsheng An, Yang Guo, Min Zhang, Xin Qi, Na Lei, Shing-Tung Yau, and
Xianfeng Gu
- Abstract要約: GAN(Generative Adversarial Network)は、現実的かつクリップな画像を生成するモデルである。
GANはしばしばモード崩壊問題に遭遇し、連続DNNを用いて本質的不連続分布変換マップを近似することから訓練に固執する。
最近提案されたAE-OTモデルでは、不連続なdistribu-tion変換マップを明示的に計算することで、この問題に対処している。
本稿では,AE-OT-GANモデルを用いて,高品質な画像を生成すると同時に,モード崩壊/混合問題を克服する。
- 参考スコア(独自算出の注目度): 21.48007565143911
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Though generative adversarial networks (GANs) areprominent models to generate
realistic and crisp images,they often encounter the mode collapse problems and
arehard to train, which comes from approximating the intrinsicdiscontinuous
distribution transform map with continuousDNNs. The recently proposed AE-OT
model addresses thisproblem by explicitly computing the discontinuous
distribu-tion transform map through solving a semi-discrete optimaltransport
(OT) map in the latent space of the autoencoder.However the generated images
are blurry. In this paper, wepropose the AE-OT-GAN model to utilize the
advantages ofthe both models: generate high quality images and at thesame time
overcome the mode collapse/mixture problems.Specifically, we first faithfully
embed the low dimensionalimage manifold into the latent space by training an
autoen-coder (AE). Then we compute the optimal transport (OT)map that pushes
forward the uniform distribution to the la-tent distribution supported on the
latent manifold. Finally,our GAN model is trained to generate high quality
imagesfrom the latent distribution, the distribution transform mapfrom which to
the empirical data distribution will be con-tinuous. The paired data between
the latent code and thereal images gives us further constriction about the
generator.Experiments on simple MNIST dataset and complex datasetslike Cifar-10
and CelebA show the efficacy and efficiency ofour proposed method.
- Abstract(参考訳): GAN(Generative Adversarial Network)は、現実的かつ鮮明な画像を生成するために優位なモデルであるが、しばしばモード崩壊問題に遭遇し、連続DNNを用いて本質的不連続分布変換マップを近似することによる訓練に固執する。
最近提案されたAE-OTモデルは、半離散最適トランスポート(OT)マップをオートエンコーダの潜在空間で解くことで、不連続なディストリビューション変換マップを明示的に計算することで、この問題に対処する。
本稿では,ae-ot-ganモデルを用いて,高画質画像の生成とモード崩壊/混合問題の克服という2つのモデルの利点を生かして,まず,低次元画像多様体をオートエンコーダ(ae)の訓練により潜在空間に忠実に埋め込む。
次に、潜在多様体上で支持されるla-tent分布に一様分布を前進させる最適なトランスポート(ot)マップを計算する。
最後に、当社のganモデルは、潜在分布から高品質な画像を生成するように訓練され、実験データ分布への分布変換マップが連続的に作成されます。
MNISTデータセットとCifar-10やCelebAのような複雑なデータセットに対する実験は,提案手法の有効性と有効性を示している。
関連論文リスト
- Learning Gaussian Representation for Eye Fixation Prediction [54.88001757991433]
既存のアイ固定予測方法は、入力画像から原固定点から生成された対応する濃密な固定マップへのマッピングを行う。
本稿ではアイフィグレーションモデリングのためのガウス表現について紹介する。
我々は,リアルタイムな固定予測を実現するために,軽量なバックボーン上にフレームワークを設計する。
論文 参考訳(メタデータ) (2024-03-21T20:28:22Z) - Denoising Diffusion Bridge Models [54.87947768074036]
拡散モデルは、プロセスを使用してデータにノイズをマッピングする強力な生成モデルである。
画像編集のような多くのアプリケーションでは、モデル入力はランダムノイズではない分布から来る。
本研究では, DDBM(Denoising Diffusion Bridge Models)を提案する。
論文 参考訳(メタデータ) (2023-09-29T03:24:24Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - DDFM: Denoising Diffusion Model for Multi-Modality Image Fusion [144.9653045465908]
拡散確率モデル(DDPM)に基づく新しい融合アルゴリズムを提案する。
近赤外可視画像融合と医用画像融合で有望な融合が得られた。
論文 参考訳(メタデータ) (2023-03-13T04:06:42Z) - Latent Space is Feature Space: Regularization Term for GANs Training on
Limited Dataset [1.8634083978855898]
LFMと呼ばれるGANの付加的な構造と損失関数を提案し、潜在空間の異なる次元間の特徴の多様性を最大化するよう訓練した。
実験では、このシステムはDCGAN上に構築されており、CelebAデータセットのスクラッチからFrechet Inception Distance(FID)トレーニングを改善することが証明されている。
論文 参考訳(メタデータ) (2022-10-28T16:34:48Z) - Image Generation with Multimodal Priors using Denoising Diffusion
Probabilistic Models [54.1843419649895]
このタスクを達成するために生成モデルを使用する際の大きな課題は、すべてのモダリティと対応する出力を含むペアデータの欠如である。
本稿では,拡散確率的合成モデルに基づく多モデル先行画像生成手法を提案する。
論文 参考訳(メタデータ) (2022-06-10T12:23:05Z) - Learning Multiple Probabilistic Degradation Generators for Unsupervised
Real World Image Super Resolution [5.987801889633082]
教師なしの現実世界のスーパーレゾリューションは、ペア化されたデータが利用できない場合に、低解像度(LR)入力を与えられた高解像度(HR)イメージを復元することを目的としている。
最も一般的なアプローチの1つは、GANを使ってノイズの多いLR画像を合成し、合成データセットを使用してモデルを教師付きで訓練することである。
HR画像が与えられたLR画像の分布を近似する確率分解生成器を提案する。
論文 参考訳(メタデータ) (2022-01-26T04:49:11Z) - Generation of data on discontinuous manifolds via continuous stochastic
non-invertible networks [6.201770337181472]
連続ネットワークを用いて不連続分布を生成する方法を示す。
コスト関数と情報理論の定式化の関係を導出する。
提案手法を合成2次元分布に適用し,不連続分布の再構成と生成の両立を実証する。
論文 参考訳(メタデータ) (2021-12-17T17:39:59Z) - Generative Model without Prior Distribution Matching [26.91643368299913]
変分オートエンコーダ(VAE)とその変分は、いくつかの先行分布を満たすために低次元の潜在表現を学習することによって古典的な生成モデルである。
我々は、先行変数に適合させるのではなく、先行変数が埋め込み分布と一致するように提案する。
論文 参考訳(メタデータ) (2020-09-23T09:33:24Z) - Optimizing Generative Adversarial Networks for Image Super Resolution
via Latent Space Regularization [4.529132742139768]
GAN(Generative Adversarial Networks)は、多様体内の実画像の分布を学習し、実際のように見えるサンプルを生成する。
本稿では,これらの問題を教師付きGANに対して緩和する方法を探究する。
論文 参考訳(メタデータ) (2020-01-22T16:27:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。