論文の概要: Latent Space is Feature Space: Regularization Term for GANs Training on
Limited Dataset
- arxiv url: http://arxiv.org/abs/2210.16251v1
- Date: Fri, 28 Oct 2022 16:34:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 15:39:17.985510
- Title: Latent Space is Feature Space: Regularization Term for GANs Training on
Limited Dataset
- Title(参考訳): 潜在空間は機能空間である:限定データセット上のgansトレーニングの正規化用語
- Authors: Pengwei Wang
- Abstract要約: LFMと呼ばれるGANの付加的な構造と損失関数を提案し、潜在空間の異なる次元間の特徴の多様性を最大化するよう訓練した。
実験では、このシステムはDCGAN上に構築されており、CelebAデータセットのスクラッチからFrechet Inception Distance(FID)トレーニングを改善することが証明されている。
- 参考スコア(独自算出の注目度): 1.8634083978855898
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Adversarial Networks (GAN) is currently widely used as an
unsupervised image generation method. Current state-of-the-art GANs can
generate photorealistic images with high resolution. However, a large amount of
data is required, or the model would prone to generate images with similar
patterns (mode collapse) and bad quality. I proposed an additional structure
and loss function for GANs called LFM, trained to maximize the feature
diversity between the different dimensions of the latent space to avoid mode
collapse without affecting the image quality. Orthogonal latent vector pairs
are created, and feature vector pairs extracted by discriminator are examined
by dot product, with which discriminator and generator are in a novel
adversarial relationship. In experiments, this system has been built upon DCGAN
and proved to have improvement on Frechet Inception Distance (FID) training
from scratch on CelebA Dataset. This system requires mild extra performance and
can work with data augmentation methods. The code is available on
github.com/penway/LFM.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は現在、教師なし画像生成手法として広く使われている。
現在の最先端のGANは高解像度でフォトリアリスティック画像を生成することができる。
しかし、大量のデータが必要であり、あるいはモデルが類似したパターン(モード崩壊)と品質の悪い画像を生成する傾向がある。
画像品質に影響を与えることなくモード崩壊を回避するため,潜伏空間の異なる次元間の特徴の多様性を最大化するために,LFMと呼ばれるGANの付加構造と損失関数を提案した。
直交潜在ベクトル対を作成し、識別器によって抽出された特徴ベクトル対をドット積で調べ、識別器と生成器が新たな対向関係にある。
実験では、このシステムはdcgan上に構築され、celebaデータセット上でscratchからfrechetインセプション距離(fid)トレーニングを改善することが証明された。
このシステムは軽度の余分なパフォーマンスを必要とし、データ拡張メソッドで機能する。
コードはgithub.com/penway/LFMで入手できる。
関連論文リスト
- DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - A Method for Evaluating Deep Generative Models of Images via Assessing
the Reproduction of High-order Spatial Context [9.00018232117916]
GAN(Generative Adversarial Network)は、広く使われているDGMの一種である。
本稿では,2つのGANアーキテクチャによって出力される画像の客観的なテストについて述べる。
我々は、訓練されたGANによって生成した画像の特徴を再現できるいくつかのコンテキストモデル(SCM)を設計した。
論文 参考訳(メタデータ) (2021-11-24T15:58:10Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z) - Optimizing Generative Adversarial Networks for Image Super Resolution
via Latent Space Regularization [4.529132742139768]
GAN(Generative Adversarial Networks)は、多様体内の実画像の分布を学習し、実際のように見えるサンプルを生成する。
本稿では,これらの問題を教師付きGANに対して緩和する方法を探究する。
論文 参考訳(メタデータ) (2020-01-22T16:27:20Z) - AE-OT-GAN: Training GANs from data specific latent distribution [21.48007565143911]
GAN(Generative Adversarial Network)は、現実的かつクリップな画像を生成するモデルである。
GANはしばしばモード崩壊問題に遭遇し、連続DNNを用いて本質的不連続分布変換マップを近似することから訓練に固執する。
最近提案されたAE-OTモデルでは、不連続なdistribu-tion変換マップを明示的に計算することで、この問題に対処している。
本稿では,AE-OT-GANモデルを用いて,高品質な画像を生成すると同時に,モード崩壊/混合問題を克服する。
論文 参考訳(メタデータ) (2020-01-11T01:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。