論文の概要: JoJoGAN: One Shot Face Stylization
- arxiv url: http://arxiv.org/abs/2112.11641v1
- Date: Wed, 22 Dec 2021 03:13:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-23 15:28:58.049897
- Title: JoJoGAN: One Shot Face Stylization
- Title(参考訳): JoJoGAN: ショットフェイスのスティル化
- Authors: Min Jin Chong, David Forsyth
- Abstract要約: 本研究は,細部を正確に把握したワンショット画像スタイリングを実現することを目的としている。
GANインバージョンと事前学習したStyleGANのファインチューンを用いて,参照スタイルの画像から実データを近似した。
次に、StyleGANを一般化して、学習したスタイルを他のすべての画像に適用できるように促します。
- 参考スコア(独自算出の注目度): 6.019182604573027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While there have been recent advances in few-shot image stylization, these
methods fail to capture stylistic details that are obvious to humans. Details
such as the shape of the eyes, the boldness of the lines, are especially
difficult for a model to learn, especially so under a limited data setting. In
this work, we aim to perform one-shot image stylization that gets the details
right. Given a reference style image, we approximate paired real data using GAN
inversion and finetune a pretrained StyleGAN using that approximate paired
data. We then encourage the StyleGAN to generalize so that the learned style
can be applied to all other images.
- Abstract(参考訳): 画像のスタイリングは近年進歩しているが、これらの手法は人間にとって明らかなスタイリスティックな詳細を捉えられなかった。
目の形、行の大胆さなどの詳細は、モデルにとって特に学習が困難であり、特に限られたデータ設定下では。
本研究では,細部を正確に把握したワンショット画像スタイリングを実現することを目的とする。
参照スタイルの画像から、GANインバージョンを用いて実データを近似し、その近似ペアデータを用いて事前学習したStyleGANを微調整する。
次に、StyleGANを一般化して、学習したスタイルを他のすべての画像に適用できるように促します。
関連論文リスト
- Portrait Diffusion: Training-free Face Stylization with
Chain-of-Painting [64.43760427752532]
顔のスタイリゼーション(face stylization)とは、顔の特定の肖像画スタイルへの変換を指す。
現在の手法では、ファインチューン事前訓練された生成モデルに対するサンプルベースの適応アプローチが必要とされる。
本稿では,ポートレートディフュージョン(Portrait Diffusion)という,トレーニング不要な顔スタイル化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-03T06:48:35Z) - InstaStyle: Inversion Noise of a Stylized Image is Secretly a Style
Adviser [22.130015124848367]
本稿では,単一の参照画像のみを用いて高忠実度スタイリング画像を生成する手法であるInstaStyleを提案する。
提案手法は,スタイリングされた参照画像からの逆ノイズが本質的にスタイル信号を運ぶことに基づく。
本稿では,参照画像のスタイル記述の精度を高めるために,プロンプトリファインメントによる学習可能なスタイルトークンを提案する。
論文 参考訳(メタデータ) (2023-11-25T14:38:54Z) - Visual Captioning at Will: Describing Images and Videos Guided by a Few
Stylized Sentences [49.66987347397398]
Few-Shot Stylized Visual Captioningは,任意のスタイルでキャプションを生成することを目的としている。
本稿では,条件付きエンコーダ-デコーダ言語モデルとビジュアルプロジェクションモジュールを用いたFS-StyleCapというフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-31T04:26:01Z) - StyleAdv: Meta Style Adversarial Training for Cross-Domain Few-Shot
Learning [89.86971464234533]
Cross-Domain Few-Shot Learning (CD-FSL)は、最近登場したタスクで、異なるドメインにわたる数ショットの学習に対処している。
本稿では,モデルに依存しないメタスタイル逆アタック(StyleAdv)手法と,新しいスタイル逆アタック手法を提案する。
本手法は視覚的スタイルに対して徐々に頑健であり,新たなターゲットデータセットの一般化能力を高める。
論文 参考訳(メタデータ) (2023-02-18T11:54:37Z) - MultiStyleGAN: Multiple One-shot Image Stylizations using a Single GAN [14.373091259972666]
一般的なシナリオはワンショットスタイリングであり、参照スタイルごとに1つの例しか使用できない。
JoJoGANファインチューンのようなワンショットスタイリングのための最近のアプローチは、単一のスタイル参照画像上に事前訓練されたStyleGAN2ジェネレータである。
単一発電機を微調整することで,複数のスタイルを同時に生成できるMultiStyleGAN法を提案する。
論文 参考訳(メタデータ) (2022-10-08T23:05:29Z) - Adversarial Style Augmentation for Domain Generalized Urban-Scene
Segmentation [120.96012935286913]
そこで本研究では,学習中にハードなスタイリング画像を生成可能な,新たな対向型拡張手法を提案する。
2つの合成から実のセマンティックセグメンテーションベンチマークの実験により、AdvStyleは目に見えない実領域におけるモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2022-07-11T14:01:25Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Style-Based Global Appearance Flow for Virtual Try-On [119.95115739956661]
本研究では, 新たなグローバルな外見フロー推定モデルを提案する。
仮想試行ベンチマークによる実験結果から,本手法が新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-04-03T10:58:04Z) - FairStyle: Debiasing StyleGAN2 with Style Channel Manipulations [0.0]
本稿では,バランスの取れた画像を生成するために,事前学習したStyleGAN2モデルを修正する手法を提案する。
提案手法は,生成画像の品質を損なうことなく,数分間でGANモデルを除去する。
論文 参考訳(メタデータ) (2022-02-13T07:39:48Z) - BlendGAN: Implicitly GAN Blending for Arbitrary Stylized Face Generation [9.370501805054344]
任意の顔生成のためのBlendGANを提案する。
まず、任意のスタイルの表現を抽出するために、ジェネリックアートデータセット上で自己教師型スタイルエンコーダを訓練する。
さらに、顔とスタイルの表現を暗黙的にブレンドし、任意のスタイル化効果を制御するために、重み付け混合モジュール(WBM)を提案する。
論文 参考訳(メタデータ) (2021-10-22T12:00:27Z) - StyleAugment: Learning Texture De-biased Representations by Style
Augmentation without Pre-defined Textures [7.81768535871051]
最近の強力な視覚分類器はテクスチャに偏り、形状情報はモデルによって見過ごされている。
Stylized ImageNetと呼ばれるアートスタイルのトランスファー手法を用いて、トレーニング画像を増強する簡単な試みは、テクスチャバイアスを低減することができる。
しかし、Stylized ImageNetアプローチには、忠実度と多様性の2つの欠点がある。
ミニバッチからスタイルを拡張したStyleAugmentを提案する。
論文 参考訳(メタデータ) (2021-08-24T07:17:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。