論文の概要: Fine-Tuning StyleGAN2 For Cartoon Face Generation
- arxiv url: http://arxiv.org/abs/2106.12445v1
- Date: Tue, 22 Jun 2021 14:00:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-25 03:42:19.215613
- Title: Fine-Tuning StyleGAN2 For Cartoon Face Generation
- Title(参考訳): 漫画顔生成のための微調整スタイルガン2
- Authors: Jihye Back
- Abstract要約: 本稿では,スタイルガン2事前学習モデルの微調整により,対象領域の画像を生成する新しい画像から画像への変換手法を提案する。
stylegan2モデルは、アンバランスデータセット上の教師なしI2I翻訳に適している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies have shown remarkable success in the unsupervised image to
image (I2I) translation. However, due to the imbalance in the data, learning
joint distribution for various domains is still very challenging. Although
existing models can generate realistic target images, it's difficult to
maintain the structure of the source image. In addition, training a generative
model on large data in multiple domains requires a lot of time and computer
resources. To address these limitations, we propose a novel image-to-image
translation method that generates images of the target domain by finetuning a
stylegan2 pretrained model. The stylegan2 model is suitable for unsupervised
I2I translation on unbalanced datasets; it is highly stable, produces realistic
images, and even learns properly from limited data when applied with simple
fine-tuning techniques. Thus, in this paper, we propose new methods to preserve
the structure of the source images and generate realistic images in the target
domain. The code and results are available at
https://github.com/happy-jihye/Cartoon-StyleGan2
- Abstract(参考訳): 最近の研究は、教師なし画像翻訳(I2I)において顕著な成功を収めている。
しかし、データの不均衡により、様々なドメインの学習ジョイント分布は依然として非常に困難である。
既存のモデルは現実的なターゲット画像を生成することができるが、ソース画像の構造を維持するのは難しい。
さらに、複数のドメインの大規模データに対する生成モデルのトレーニングには、多くの時間とコンピュータリソースが必要です。
そこで本稿では,この制約に対処するために,stylegan2事前学習モデルを用いて対象領域の画像を生成する新しい画像から画像への変換手法を提案する。
stylegan2モデルは、不均衡データセットの教師なしi2i変換に適しており、高度に安定し、リアルな画像を生成し、単純な微調整技術を適用すると限られたデータから適切に学習する。
そこで本稿では,ソース画像の構造を保存し,対象領域で現実的な画像を生成する新しい手法を提案する。
コードと結果はhttps://github.com/happy-jihye/cartoon-stylegan2で入手できる。
関連論文リスト
- How Many Van Goghs Does It Take to Van Gogh? Finding the Imitation Threshold [50.33428591760124]
学習データセットにおける概念の頻度とモデルを模倣する能力の関係について検討する。
我々は,複数のモデルをスクラッチからトレーニングする余剰コストを発生させることなく,模倣閾値を推定する効率的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:28:14Z) - UVCGAN v2: An Improved Cycle-Consistent GAN for Unpaired Image-to-Image
Translation [10.689788782893096]
I2I (unpaired image-to-image) 翻訳技術は、完全に教師なしの方法で2つのデータ領域間のマッピングを求める。
DMはFrechet distance(FID)の観点からI2I翻訳ベンチマークの最先端を保っている
この研究は、最近のUVCGANモデルを改善し、モデルアーキテクチャとトレーニング手順の近代化に資する。
論文 参考訳(メタデータ) (2023-03-28T19:46:34Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - toon2real: Translating Cartoon Images to Realistic Images [1.4419517737536707]
このタスクを実行するためにいくつかの最先端モデルを適用するが、高品質な翻訳には失敗する。
本稿では,漫画領域からフォトリアリスティック領域への画像変換のためのCycleGANモデルに基づく手法を提案する。
実験の結果を実証し,提案手法が他の最先端技術であるUNITと比較して最も低いFrechet Inception Distanceスコアと優れた結果を得たことを示す。
論文 参考訳(メタデータ) (2021-02-01T20:22:05Z) - Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network [73.5062435623908]
本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
論文 参考訳(メタデータ) (2020-10-12T13:51:40Z) - COCO-FUNIT: Few-Shot Unsupervised Image Translation with a Content
Conditioned Style Encoder [70.23358875904891]
教師なし画像画像変換は、与えられた領域内の画像と異なる領域内の類似画像とのマッピングを学習することを目的としている。
入力画像に条件付けされたサンプル画像のスタイル埋め込みを計算し、新しい数ショット画像変換モデルCOCO-FUNITを提案する。
本モデルは,コンテンツ損失問題に対処する上での有効性を示す。
論文 参考訳(メタデータ) (2020-07-15T02:01:14Z) - TuiGAN: Learning Versatile Image-to-Image Translation with Two Unpaired
Images [102.4003329297039]
教師なし画像画像変換(UI2I)タスクは、ペア画像のない2つのドメイン間のマッピングを学習する。
本研究では,2つの未ペア画像のみをトレーニングし,ワンショットで教師なし学習を行う生成モデルTuiGANを提案する。
論文 参考訳(メタデータ) (2020-04-09T16:23:59Z) - Semi-supervised Learning for Few-shot Image-to-Image Translation [89.48165936436183]
本稿では,SEMITと呼ばれる画像翻訳のための半教師付き手法を提案する。
提案手法は,ソースラベルの10%以下を用いて,4つの異なるデータセットに対して優れた結果を得る。
論文 参考訳(メタデータ) (2020-03-30T22:46:49Z) - GANILLA: Generative Adversarial Networks for Image to Illustration
Translation [12.55972766570669]
現状のイメージ・ツー・イメージ翻訳モデルでは,スタイルとコンテンツのいずれかを変換することに成功したが,同時に両者を転送することはできなかった。
本稿では,この問題に対処する新しいジェネレータネットワークを提案し,その結果のネットワークがスタイルとコンテンツのバランスを良くすることを示す。
論文 参考訳(メタデータ) (2020-02-13T17:12:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。