論文の概要: Style-Restricted GAN: Multi-Modal Translation with Style Restriction
Using Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2105.07621v1
- Date: Mon, 17 May 2021 05:58:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 01:07:27.298613
- Title: Style-Restricted GAN: Multi-Modal Translation with Style Restriction
Using Generative Adversarial Networks
- Title(参考訳): スタイル制限付きGAN:生成逆ネットワークを用いたスタイル制限付きマルチモーダル翻訳
- Authors: Sho Inoue and Tad Gonsalves
- Abstract要約: スタイル制限型GAN(SRGAN)は、入力画像を異なるスタイルで異なるドメインに転送する新しいアプローチである。
SRGANは、CelebAの顔データセットのクラス非関連の特徴を変化させることなく、より多様性の高い翻訳に成功した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Unpaired image-to-image translation using Generative Adversarial Networks
(GAN) is successful in converting images among multiple domains. Moreover,
recent studies have shown a way to diversify the outputs of the generator.
However, since there are no restrictions on how the generator diversifies the
results, it is likely to translate some unexpected features. In this paper, we
propose Style-Restricted GAN (SRGAN), a novel approach to transfer input images
into different domains' with different styles, changing the exclusively
class-related features. Additionally, instead of KL divergence loss, we adopt 3
new losses to restrict the distribution of the encoded features: batch KL
divergence loss, correlation loss, and histogram imitation loss. The study
reports quantitative as well as qualitative results with Precision, Recall,
Density, and Coverage. The proposed 3 losses lead to the enhancement of the
level of diversity compared to the conventional KL loss. In particular, SRGAN
is found to be successful in translating with higher diversity and without
changing the class-unrelated features in the CelebA face dataset. Our
implementation is available at
https://github.com/shinshoji01/Style-Restricted_GAN.
- Abstract(参考訳): GAN(Generative Adversarial Networks)を用いた画像と画像の非ペア変換は,複数の領域間で画像の変換に成功している。
さらに、最近の研究では、ジェネレータの出力を多様化する方法が示されている。
しかしながら、ジェネレータが結果の多様化方法に制限がないため、予期せぬ特徴を翻訳する可能性が高い。
本稿では,入力画像を異なるスタイルで異なるドメインに転送する新しい手法であるSRGAN(Style-Restricted GAN)を提案する。
さらに,KL分散損失の代わりに,バッチKL分散損失,相関損失,ヒストグラム模倣損失という,符号化された特徴の分布を制限するために3つの新たな損失を採用した。
この研究は、精度、リコール、密度、カバーの質的な結果とともに定量的に報告している。
提案した3つの損失は、従来のKL損失と比較して多様性レベルの向上につながる。
特に、SRGANはCelebA顔データセットのクラス非関連の特徴を変化させることなく、より多様性の高い翻訳に成功した。
実装はhttps://github.com/shinshoji01/Style-Restricted_GANで公開しています。
関連論文リスト
- Masked Discriminators for Content-Consistent Unpaired Image-to-Image
Translation [1.3654846342364308]
画像から画像への変換の欠如の共通のゴールは、ソース画像と翻訳画像の間のコンテンツ一貫性を維持することである。
コンテンツベースのマスクを用いて、両領域のグローバル識別器の入力をマスキングすることは、コンテンツの不整合を著しく低減するのに十分であることを示す。
実験により,本手法は,光現実的シミュレーショナル翻訳と気象翻訳において,最先端の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-09-22T21:32:07Z) - Latent Space is Feature Space: Regularization Term for GANs Training on
Limited Dataset [1.8634083978855898]
LFMと呼ばれるGANの付加的な構造と損失関数を提案し、潜在空間の異なる次元間の特徴の多様性を最大化するよう訓練した。
実験では、このシステムはDCGAN上に構築されており、CelebAデータセットのスクラッチからFrechet Inception Distance(FID)トレーニングを改善することが証明されている。
論文 参考訳(メタデータ) (2022-10-28T16:34:48Z) - What can we learn about a generated image corrupting its latent
representation? [57.1841740328509]
GANのボトルネックにおける潜在表現に基づいて画像品質を予測できるという仮説を考察する。
遅延表現を雑音で破壊し、複数の出力を生成することでこれを実現できる。
論文 参考訳(メタデータ) (2022-10-12T14:40:32Z) - Towards Diverse and Faithful One-shot Adaption of Generative Adversarial
Networks [54.80435295622583]
ワンショット生成ドメイン適応は、訓練済みのジェネレータを1つの参照画像のみを使用して、新しいドメインに転送することを目的としている。
本稿では、多種多様な世代と忠実な適応のための新しい一発生成ドメイン適応法、すなわち、DiFaを提案する。
論文 参考訳(メタデータ) (2022-07-18T16:29:41Z) - StEP: Style-based Encoder Pre-training for Multi-modal Image Synthesis [68.3787368024951]
マルチモーダルイメージ・ツー・イメージ(I2I)翻訳のための新しいアプローチを提案する。
我々は、出力領域の可変性をモデル化する潜伏埋め込みをジェネレータと共同で学習する。
具体的には、新しいプロキシタスクを用いて汎用的なスタイルエンコーダを事前訓練し、任意のドメインから低次元のスタイル潜在空間への画像の埋め込みを学習する。
論文 参考訳(メタデータ) (2021-04-14T19:58:24Z) - The Spatially-Correlative Loss for Various Image Translation Tasks [69.62228639870114]
シーン構造の一貫性を保つために、シンプルで効率的かつ効果的な新しい空間相関損失を提案します。
以前の方法は、ピクセルレベルのサイクル一貫性または特徴レベルのマッチング損失を使用してこれを試みます。
I2I翻訳の3つのモードすべてにおいて,ベースラインモデルに対して,単一モーダル,マルチモーダル,さらには単一イメージ翻訳において,明確な改善が見られた。
論文 参考訳(メタデータ) (2021-04-02T02:13:30Z) - Rethinking conditional GAN training: An approach using geometrically
structured latent manifolds [58.07468272236356]
条件付きGAN(cGAN)は、生成された出力の多様性の欠如などの重大な欠点に悩まされる。
本稿では,バニラcGANの多様性と視覚的品質を両立させる新しいトレーニング機構を提案する。
論文 参考訳(メタデータ) (2020-11-25T22:54:11Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z) - CDGAN: Cyclic Discriminative Generative Adversarial Networks for
Image-to-Image Transformation [17.205434613674104]
我々はCDGAN(Cyclic Discriminative Generative Adversarial Networks)と呼ばれる新しい画像間変換ネットワークを導入する。
提案したCDGANは、サイクル画像に新たな識別器ネットワークを組み込むことにより、高品質でリアルな画像を生成する。
定量および定性的な結果を解析し、最先端の手法と比較する。
論文 参考訳(メタデータ) (2020-01-15T05:12:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。