論文の概要: CtlGAN: Few-shot Artistic Portraits Generation with Contrastive Transfer
Learning
- arxiv url: http://arxiv.org/abs/2203.08612v1
- Date: Wed, 16 Mar 2022 13:28:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 16:05:54.392876
- Title: CtlGAN: Few-shot Artistic Portraits Generation with Contrastive Transfer
Learning
- Title(参考訳): CtlGAN: コントラストトランスファー学習によるアーティスティック・ポートフォリオ生成
- Authors: Yue Wang, Ran Yi, Ying Tai, Chengjie Wang, Lizhuang Ma
- Abstract要約: CtlGANは、新しいコントラッシブ・トランスファー学習戦略を備えた、数発のアート・ポートレート生成モデルである。
ソースドメインで事前訓練したStyleGANを,対象の芸術領域に適応させる。
実面をZ+空間に埋め込んだ新しいエンコーダを提案し,適応型デコーダに対処するためのデュアルパストレーニング戦略を提案する。
- 参考スコア(独自算出の注目度): 61.00991745256471
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating artistic portraits is a challenging problem in computer vision.
Existing portrait stylization models that generate good quality results are
based on Image-to-Image Translation and require abundant data from both source
and target domains. However, without enough data, these methods would result in
overfitting. In this work, we propose CtlGAN, a new few-shot artistic portraits
generation model with a novel contrastive transfer learning strategy. We adapt
a pretrained StyleGAN in the source domain to a target artistic domain with no
more than 10 artistic faces. To reduce overfitting to the few training
examples, we introduce a novel Cross-Domain Triplet loss which explicitly
encourages the target instances generated from different latent codes to be
distinguishable. We propose a new encoder which embeds real faces into Z+ space
and proposes a dual-path training strategy to better cope with the adapted
decoder and eliminate the artifacts. Extensive qualitative, quantitative
comparisons and a user study show our method significantly outperforms
state-of-the-arts under 10-shot and 1-shot settings and generates high quality
artistic portraits. The code will be made publicly available.
- Abstract(参考訳): 芸術的ポートレートの生成は、コンピュータビジョンにおいて難しい問題である。
高品質な結果を生成する既存のポートレートスタイライゼーションモデルは、画像から画像への変換に基づいており、ソースドメインとターゲットドメインの両方から豊富なデータを必要とする。
しかし、十分なデータがないと、これらの手法は過度に適合する。
そこで本研究では,コントラッシブ・トランスファレンス・ラーニング・ストラテジーを新たに導入した,数枚の画像生成モデルCtlGANを提案する。
ソースドメインで事前学習されたスタイルガンを、10以上の芸術的顔を持つ対象の芸術的ドメインに適応させる。
少数のトレーニング例への過剰適合を減らすために、異なる潜在コードから生成されたターゲットインスタンスを識別可能にする新しいクロスドメイン三重項損失を導入する。
実面をZ+空間に埋め込んだ新しいエンコーダを提案し,適応デコーダに対処し,アーティファクトを除去するためのデュアルパストレーニング戦略を提案する。
広汎な質的,定量的な比較とユーザスタディにより,10ショット,1ショットの条件下では最先端の絵画を著しく上回り,高品質な絵画を制作した。
コードは公開される予定だ。
関連論文リスト
- Learning Subject-Aware Cropping by Outpainting Professional Photos [69.0772948657867]
本稿では,高品質な主観的作物を生産する要因を,プロのストックイメージから学習するための弱教師付きアプローチを提案する。
私たちの洞察は、ストックイメージのライブラリと、最新のトレーニング済みのテキスト-画像拡散モデルを組み合わせることです。
我々は、収穫された無作為のトレーニングペアの大規模なデータセットを自動的に生成して、収穫モデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2023-12-19T11:57:54Z) - Semantically-aware Mask CycleGAN for Translating Artistic Portraits to
Photo-realistic Visualizations [0.0]
芸術的な肖像画を視覚化に変換できるセマンティック・アウェアのマスクサイクルGANアーキテクチャを提案する。
このモデルは、識別者が意味的に偽のサンプルを隠蔽することで、現実的な人間の肖像画を生成することができる。
実験により、SMCycleGANはリアリズムを著しく増加させ、コンテンツ表現の損失を最小限に抑える画像を生成することが示された。
論文 参考訳(メタデータ) (2023-06-11T03:58:09Z) - AgileGAN3D: Few-Shot 3D Portrait Stylization by Augmented Transfer
Learning [80.67196184480754]
本稿では,3次元芸術的に魅力的な肖像画を詳細な幾何学で作成できる新しいフレームワークであるemphAgileGAN3Dを提案する。
新しいスタイリゼーションは、わずか (約20) の未完成の2D例で得られる。
われわれのパイプラインは、ユーザの写真を多様な3Dアートのポートレートに変える強力な能力を示している。
論文 参考訳(メタデータ) (2023-03-24T23:04:20Z) - WebtoonMe: A Data-Centric Approach for Full-Body Portrait Stylization [5.2661965280415926]
プロダクションレベルのフルボディ・ポートレート・スタイリングシステムを構築するためのデータ中心のソリューションを提案する。
この2段階のスキームに基づいて,新しい高度なデータセット作成パラダイムを構築した。
実験の結果、パイプラインでは、付加的な損失やアーキテクチャの変更なしに高品質なポートレートスタイリングが達成できることがわかった。
論文 参考訳(メタデータ) (2022-10-19T07:09:03Z) - Explicitly Controllable 3D-Aware Portrait Generation [42.30481422714532]
ポーズ,アイデンティティ,表現,照明に関する意味的パラメータに基づいて,一貫した肖像画を生成する3次元肖像画生成ネットワークを提案する。
提案手法は,自然光の鮮明な表現によるリアルな肖像画を,自由視点で見る場合,先行技術よりも優れる。
論文 参考訳(メタデータ) (2022-09-12T17:40:08Z) - Quality Metric Guided Portrait Line Drawing Generation from Unpaired
Training Data [88.78171717494688]
本研究では,顔画像から肖像画への自動変換手法を提案する。
本手法は,(1)1つのネットワークを用いて複数のスタイルで高品質な肖像画を生成することを学習し,(2)トレーニングデータに見つからない「新しいスタイル」の肖像画を生成する。
論文 参考訳(メタデータ) (2022-02-08T06:49:57Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Fine-Tuning StyleGAN2 For Cartoon Face Generation [0.0]
本稿では,スタイルガン2事前学習モデルの微調整により,対象領域の画像を生成する新しい画像から画像への変換手法を提案する。
stylegan2モデルは、アンバランスデータセット上の教師なしI2I翻訳に適している。
論文 参考訳(メタデータ) (2021-06-22T14:00:10Z) - StEP: Style-based Encoder Pre-training for Multi-modal Image Synthesis [68.3787368024951]
マルチモーダルイメージ・ツー・イメージ(I2I)翻訳のための新しいアプローチを提案する。
我々は、出力領域の可変性をモデル化する潜伏埋め込みをジェネレータと共同で学習する。
具体的には、新しいプロキシタスクを用いて汎用的なスタイルエンコーダを事前訓練し、任意のドメインから低次元のスタイル潜在空間への画像の埋め込みを学習する。
論文 参考訳(メタデータ) (2021-04-14T19:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。