論文の概要: AniGAN: Style-Guided Generative Adversarial Networks for Unsupervised
Anime Face Generation
- arxiv url: http://arxiv.org/abs/2102.12593v1
- Date: Wed, 24 Feb 2021 22:47:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-26 14:03:43.890870
- Title: AniGAN: Style-Guided Generative Adversarial Networks for Unsupervised
Anime Face Generation
- Title(参考訳): AniGAN: 教師なしアニメ顔生成のためのスタイルガイド付きジェネレータネットワーク
- Authors: Bing Li, Yuanlue Zhu, Yitong Wang, Chia-Wen Lin, Bernard Ghanem,
Linlin Shen
- Abstract要約: 本稿では,肖像画をアニメ化するための新しい枠組みを提案する。
私たちの目標は、特定の参照アニメフェイスとスタイル一貫性のあるアニメフェイスを合成することです。
既存の方法は、しばしば参照アニメフェイスのスタイルを転送したり、生成された顔の局所的な形状に顕著なアーティファクトや歪みを導入することに失敗する。
- 参考スコア(独自算出の注目度): 84.52819242283852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a novel framework to translate a portrait
photo-face into an anime appearance. Our aim is to synthesize anime-faces which
are style-consistent with a given reference anime-face. However, unlike typical
translation tasks, such anime-face translation is challenging due to complex
variations of appearances among anime-faces. Existing methods often fail to
transfer the styles of reference anime-faces, or introduce noticeable
artifacts/distortions in the local shapes of their generated faces. We propose
Ani- GAN, a novel GAN-based translator that synthesizes highquality
anime-faces. Specifically, a new generator architecture is proposed to
simultaneously transfer color/texture styles and transform local facial shapes
into anime-like counterparts based on the style of a reference anime-face,
while preserving the global structure of the source photoface. We propose a
double-branch discriminator to learn both domain-specific distributions and
domain-shared distributions, helping generate visually pleasing anime-faces and
effectively mitigate artifacts. Extensive experiments qualitatively and
quantitatively demonstrate the superiority of our method over state-of-the-art
methods.
- Abstract(参考訳): 本論文では,ポートレート・フォトフェイスをアニメ化するための新しい枠組みを提案する。
私たちの目標は、特定の参照アニメフェイスとスタイル一貫性のあるアニメフェイスを合成することです。
しかし、一般的な翻訳課題と異なり、アニメの表情が複雑なため、このようなアニメの翻訳は困難である。
既存の方法は、しばしば参照アニメフェイスのスタイルを転送したり、生成された顔の局所的な形状に顕著なアーティファクトや歪みを導入することに失敗する。
高品質なアニメを合成する新しいganベースの翻訳器ani-ganを提案する。
具体的には,カラー/テクチュアスタイルを同時転送し,参照アニメフェイスのスタイルに基づいて局所的な顔形状をアニメライクに変換し,ソースフォトフェイスのグローバル構造を保ちながら,新たなジェネレータアーキテクチャを提案する。
本稿では,ドメイン固有分布とドメイン共有分布の両方を学習し,視覚的に心地よいアニメ表現を生成し,効果的にアーティファクトを緩和するダブルブランチ判別器を提案する。
本手法の最先端手法に対する優位性を質的かつ定量的に実証した。
関連論文リスト
- FlashFace: Human Image Personalization with High-fidelity Identity Preservation [59.76645602354481]
FlashFaceを使うと、ユーザーは自分の写真を簡単にパーソナライズできる。
我々のアプローチは、高忠実度ID保存とより良い指示に従うことによって、既存の人間の写真カスタマイズ方法と区別できる。
論文 参考訳(メタデータ) (2024-03-25T17:59:57Z) - When StyleGAN Meets Stable Diffusion: a $\mathscr{W}_+$ Adapter for
Personalized Image Generation [60.305112612629465]
テキストと画像の拡散モデルは、多種多様で高品質でフォトリアリスティックな画像を生成するのに優れている。
本稿では,拡散モデルのための拡張されたアイデンティティ保存とアンタングル化を実現するために,StyleGAN 埋め込み空間 $mathcalW_+$ の新たな利用法を提案する。
提案手法は,即時記述に適合するだけでなく,一般的なスタイルGAN編集方向に対応可能なパーソナライズされたテキスト・ツー・イメージ出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T09:05:14Z) - Language-Guided Face Animation by Recurrent StyleGAN-based Generator [87.56260982475564]
本研究では,静的顔画像のアニメーション化を目的とした,言語指導型顔画像の新しいタスクについて検討する。
本稿では,言語から一連の意味情報と動作情報を抽出し,学習済みのStyleGANに視覚情報と共に供給し,高品質なフレームを生成するための繰り返し動作生成手法を提案する。
論文 参考訳(メタデータ) (2022-08-11T02:57:30Z) - 3D Cartoon Face Generation with Controllable Expressions from a Single
GAN Image [142.047662926209]
我々は、単一の2D GAN生成人間の顔から3次元マンガの顔形状を生成する。
我々は3次元マンガの顔の形状を再構築できるように、ポーズや照明の異なる画像を生成するために潜時符号を操作する。
論文 参考訳(メタデータ) (2022-07-29T01:06:21Z) - Cross-Domain Style Mixing for Face Cartoonization [6.174413879403037]
本稿では,2つの異なるドメインからの2つの潜在コードを組み合わせたクロスドメイン・スタイル・ミキシング法を提案する。
本手法は,1つのジェネレータのみを用いて,顔の抽象レベルが異なる複数の漫画のキャラクターを効果的にスタイリングする。
論文 参考訳(メタデータ) (2022-05-25T02:39:10Z) - Anime-to-Real Clothing: Cosplay Costume Generation via Image-to-Image
Translation [2.4660652494309936]
本稿では,画像から画像への変換に基づく衣装画像の自動生成手法を提案する。
本稿では、高品質なコスプレ画像生成を容易にするために、GAN(Generative Adversarial Network)のための新しいアーキテクチャを提案する。
実験により,2種類の評価指標を用いて,提案したGANは既存手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-08-26T10:34:46Z) - MangaGAN: Unpaired Photo-to-Manga Translation Based on The Methodology
of Manga Drawing [27.99490750445691]
本稿では,GAN(Generative Adversarial Network)をベースとしたマンガGANを提案する。
マンガアーティストがいかにマンガを描くかにインスパイアされたMangaGANは、デザインされたGANモデルによってマンガの幾何学的特徴を生成する。
高品質なマンガ面を生成するために,スムーズなストロークラインへの構造的スムージングロスとノイズの多い画素の回避,および類似性保存モジュールを提案する。
論文 参考訳(メタデータ) (2020-04-22T15:23:42Z) - MW-GAN: Multi-Warping GAN for Caricature Generation with Multi-Style
Geometric Exaggeration [53.98437317161086]
入力顔写真が与えられた場合、キャラクチュア生成の目標は、写真と同じアイデンティティを共有するスタイリングされた、誇張されたキャラクチュアを作ることである。
本稿では,MW-GAN(Multi-Warping GAN)と呼ばれる,スタイルネットワークと幾何学的ネットワークを含む新しいフレームワークを提案する。
実験により, MW-GANが生成する似顔絵は, 既存の方法よりも優れた品質を示すことが示された。
論文 参考訳(メタデータ) (2020-01-07T03:08:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。