論文の概要: PP-GAN : Style Transfer from Korean Portraits to ID Photos Using
Landmark Extractor with GAN
- arxiv url: http://arxiv.org/abs/2306.13418v1
- Date: Fri, 23 Jun 2023 10:10:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-26 13:06:51.031121
- Title: PP-GAN : Style Transfer from Korean Portraits to ID Photos Using
Landmark Extractor with GAN
- Title(参考訳): PP-GAN : GAN付きランドマークエクストラクタを用いた韓国文字からID写真へのスタイル移行
- Authors: Jongwook Si and Sungyoung Kim
- Abstract要約: 朝鮮の肖像画では、ほとんどの人が男性専用の頭飾りである「Gat」を着用している。
本研究では,顔の同一性を保ちながら,「Gat」を含むスタイル伝達を行うことができる深層学習ネットワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The objective of a style transfer is to maintain the content of an image
while transferring the style of another image. However, conventional research
on style transfer has a significant limitation in preserving facial landmarks,
such as the eyes, nose, and mouth, which are crucial for maintaining the
identity of the image. In Korean portraits, the majority of individuals wear
"Gat", a type of headdress exclusively worn by men. Owing to its distinct
characteristics from the hair in ID photos, transferring the "Gat" is
challenging. To address this issue, this study proposes a deep learning network
that can perform style transfer, including the "Gat", while preserving the
identity of the face. Unlike existing style transfer approaches, the proposed
method aims to preserve texture, costume, and the "Gat" on the style image. The
Generative Adversarial Network forms the backbone of the proposed network. The
color, texture, and intensity were extracted differently based on the
characteristics of each block and layer of the pre-trained VGG-16, and only the
necessary elements during training were preserved using a facial landmark mask.
The head area was presented using the eyebrow area to transfer the "Gat".
Furthermore, the identity of the face was retained, and style correlation was
considered based on the Gram matrix. The proposed approach demonstrated
superior transfer and preservation performance compared to previous studies.
- Abstract(参考訳): スタイル転送の目的は、他の画像のスタイルを転送しながら、画像の内容を維持することである。
しかし、従来のスタイル転送の研究は、画像の同一性を維持するのに不可欠な目、鼻、口などの顔のランドマークを維持する上で大きな制限がある。
朝鮮の肖像画では、ほとんどの人が男性専用の頭飾りである「Gat」を着用している。
ID写真の毛髪とは異なる特徴を持つため、"Gat"の転送は困難である。
この問題に対処するため,本研究では,顔のアイデンティティを保ちながら「ガット」を含むスタイル転送を行うディープラーニングネットワークを提案する。
既存のスタイル転送手法とは異なり,提案手法はテクスチャ,衣装,およびスタイルイメージ上の"Gat"を保存することを目的としている。
Generative Adversarial Networkは提案したネットワークのバックボーンを形成する。
予め訓練したVGG-16の各ブロックと層の特徴に基づいて,色,テクスチャ,強度を異なる方法で抽出し,顔のランドマークマスクを用いてトレーニングに必要な要素のみを保存した。
頭部の領域は「Gat」を転送するために眼窩を用いて提示された。
また,顔の同一性は保持され,グラムマトリクスに基づくスタイル相関が検討された。
提案手法は, 従来の研究よりも優れた移動・保存性能を示した。
関連論文リスト
- What to Preserve and What to Transfer: Faithful, Identity-Preserving Diffusion-based Hairstyle Transfer [35.80645300182437]
既存の髪型移行アプローチはStyleGANに依存している。
本稿では,現実のシナリオに適用可能な一段階のヘアスタイル転移拡散モデルであるHairFusionを提案する。
本手法は, ヘアスタイルと周辺特性の整合性を維持する既存手法と比較して, 最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-29T11:30:21Z) - DiffStyler: Diffusion-based Localized Image Style Transfer [0.0]
画像スタイル転送は、色、ブラシストローク、形状など、スタイルターゲットの特徴的な特性を持つデジタルイメージを埋め込むことを目的としている。
任意のスタイル転送手法の進歩にもかかわらず、コンテンツセマンティクスとスタイル属性の微妙な均衡は依然として大きな課題である。
本稿ではDiffStylerについて紹介する。DiffStylerは、任意の画像スタイルの効率的な転送を容易にする新しいアプローチである。
論文 参考訳(メタデータ) (2024-03-27T11:19:34Z) - When StyleGAN Meets Stable Diffusion: a $\mathscr{W}_+$ Adapter for
Personalized Image Generation [60.305112612629465]
テキストと画像の拡散モデルは、多種多様で高品質でフォトリアリスティックな画像を生成するのに優れている。
本稿では,拡散モデルのための拡張されたアイデンティティ保存とアンタングル化を実現するために,StyleGAN 埋め込み空間 $mathcalW_+$ の新たな利用法を提案する。
提案手法は,即時記述に適合するだけでなく,一般的なスタイルGAN編集方向に対応可能なパーソナライズされたテキスト・ツー・イメージ出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T09:05:14Z) - Portrait Stylization: Artistic Style Transfer with Auxiliary Networks
for Human Face Stylization [0.0]
本稿では,コンテンツ画像から最終スタイル化結果への人間の顔特徴の伝播を促すために,補助訓練済みの顔認識モデルからの埋め込みの利用を提案する。
論文 参考訳(メタデータ) (2023-09-23T23:02:32Z) - StyleMask: Disentangling the Style Space of StyleGAN2 for Neural Face
Reenactment [47.27033282706179]
本研究では,顔の特徴をそのポーズから切り離すフレームワークを提案する。
提案手法は, 極端なポーズ変動であっても, 高品質な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-09-27T13:22:35Z) - Graph-based Generative Face Anonymisation with Pose Preservation [49.18049578591058]
AnonyGANは、顔の匿名化のためのGANベースのソリューションである。
ソースアイデンティティに対応する視覚情報を、任意の単一のイメージとして提供される条件IDに置き換える。
論文 参考訳(メタデータ) (2021-12-10T12:58:17Z) - Learning Semantic Person Image Generation by Region-Adaptive
Normalization [81.52223606284443]
ポーズと外観の翻訳を扱う新しい2段階フレームワークを提案する。
第1段階では,対象意味解析マップを予測し,ポーズ転送の難しさを解消する。
第2段階では,領域適応正規化を組み込んだ新たな人物画像生成手法を提案する。
論文 参考訳(メタデータ) (2021-04-14T06:51:37Z) - Progressive and Aligned Pose Attention Transfer for Person Image
Generation [59.87492938953545]
本稿では,ある人物のポーズを対象のポーズに移す,新たなポーズ移動のための生成的広告ネットワークを提案する。
Pose-Attentional Transfer Block (PATB) と Aligned Pose-Attentional Transfer Bloc (APATB) の2種類のブロックを使用します。
Market-1501およびDeepFashionデータセットにおけるモデルの有効性を定量的および定性測定を用いて検証する。
論文 参考訳(メタデータ) (2021-03-22T07:24:57Z) - MW-GAN: Multi-Warping GAN for Caricature Generation with Multi-Style
Geometric Exaggeration [53.98437317161086]
入力顔写真が与えられた場合、キャラクチュア生成の目標は、写真と同じアイデンティティを共有するスタイリングされた、誇張されたキャラクチュアを作ることである。
本稿では,MW-GAN(Multi-Warping GAN)と呼ばれる,スタイルネットワークと幾何学的ネットワークを含む新しいフレームワークを提案する。
実験により, MW-GANが生成する似顔絵は, 既存の方法よりも優れた品質を示すことが示された。
論文 参考訳(メタデータ) (2020-01-07T03:08:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。