論文の概要: SLGAN: Style- and Latent-guided Generative Adversarial Network for
Desirable Makeup Transfer and Removal
- arxiv url: http://arxiv.org/abs/2009.07557v3
- Date: Thu, 24 Sep 2020 13:08:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 00:49:37.944237
- Title: SLGAN: Style- and Latent-guided Generative Adversarial Network for
Desirable Makeup Transfer and Removal
- Title(参考訳): SLGAN:所望のメイクアップ転送と削除のためのスタイルおよび遅延誘導型ジェネレーション・アドバイザリー・ネットワーク
- Authors: Daichi Horita and Kiyoharu Aizawa
- Abstract要約: 人間の顔の写真に化粧を施すために、生成的敵ネットワークを使用する場合、考慮すべき5つの特徴がある。
いくつかの関連研究が提案されており、主にGAN(Generative Adversarial Network)を用いている。
本稿では,革新的なスタイルと潜在誘導型GAN(SLGAN)でギャップを埋める。
- 参考スコア(独自算出の注目度): 44.290305928805836
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are five features to consider when using generative adversarial
networks to apply makeup to photos of the human face. These features include
(1) facial components, (2) interactive color adjustments, (3) makeup
variations, (4) robustness to poses and expressions, and the (5) use of
multiple reference images. Several related works have been proposed, mainly
using generative adversarial networks (GAN). Unfortunately, none of them have
addressed all five features simultaneously. This paper closes the gap with an
innovative style- and latent-guided GAN (SLGAN). We provide a novel, perceptual
makeup loss and a style-invariant decoder that can transfer makeup styles based
on histogram matching to avoid the identity-shift problem. In our experiments,
we show that our SLGAN is better than or comparable to state-of-the-art
methods. Furthermore, we show that our proposal can interpolate facial makeup
images to determine the unique features, compare existing methods, and help
users find desirable makeup configurations.
- Abstract(参考訳): 生成的な敵ネットワークを使って人間の顔の写真にメイクを施す際に考慮すべき5つの特徴がある。
これらの特徴は、(1)顔成分、(2)インタラクティブな色調整、(3)化粧のバリエーション、(4)ポーズや表情に対する堅牢性、(5)複数の参照画像の使用である。
主にgan(generative adversarial network)を用いて、関連するいくつかの研究が提案されている。
残念なことに、いずれも5つの機能すべてを同時に対応していない。
本稿では,革新的なスタイルと潜在誘導型GAN(SLGAN)でギャップを埋める。
ヒストグラムマッチングに基づいてメイクスタイルを転送し、アイデンティティシフト問題を回避することができる、新しい知覚的メイクアップロスおよびスタイル不変デコーダを提供する。
実験の結果,SLGANは最先端手法より優れているか,あるいは同等であることがわかった。
さらに,提案手法は顔の化粧画像を補間して特徴を判断し,既存手法と比較し,ユーザが望ましい化粧構成を見つけるのに役立つことを示す。
関連論文リスト
- Gorgeous: Create Your Desired Character Facial Makeup from Any Ideas [9.604390113485834]
$Gorgeous$は、新しい拡散ベースのメイクアップメソッドである。
参照画像に顔が存在する必要はない。
$Gorgeous$は、選択したテーマの参照画像にインスパイアされた、特徴的な顔のメイクを効果的に生成できる。
論文 参考訳(メタデータ) (2024-04-22T07:40:53Z) - When StyleGAN Meets Stable Diffusion: a $\mathscr{W}_+$ Adapter for
Personalized Image Generation [60.305112612629465]
テキストと画像の拡散モデルは、多種多様で高品質でフォトリアリスティックな画像を生成するのに優れている。
本稿では,拡散モデルのための拡張されたアイデンティティ保存とアンタングル化を実現するために,StyleGAN 埋め込み空間 $mathcalW_+$ の新たな利用法を提案する。
提案手法は,即時記述に適合するだけでなく,一般的なスタイルGAN編集方向に対応可能なパーソナライズされたテキスト・ツー・イメージ出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T09:05:14Z) - MorphGANFormer: Transformer-based Face Morphing and De-Morphing [55.211984079735196]
顔変形に対するスタイルGANベースのアプローチが主要な技術である。
本稿では,顔の変形に対する変換器ベースの代替手段を提案し,その利点をStyleGANベースの方法と比較した。
論文 参考訳(メタデータ) (2023-02-18T19:09:11Z) - UnGANable: Defending Against GAN-based Face Manipulation [69.90981797810348]
ディープフェイクは、私たちの社会に視覚的誤報の深刻な脅威をもたらす。
1つの代表的なディープフェイク応用は、画像中の被害者の顔属性を変更する顔操作である。
本稿では,GANable による顔操作に対する最初の防御システムである UnGANable を提案する。
論文 参考訳(メタデータ) (2022-10-03T14:20:01Z) - Semantics-Guided Object Removal for Facial Images: with Broad
Applicability and Robust Style Preservation [29.162655333387452]
顔画像における物体の除去と画像の塗布は、顔画像を妨げる物体を特に標的にし、除去し、適切に再構成された顔画像に置き換えるタスクである。
U-netと変調ジェネレータを利用する2つの異なるアプローチは、それぞれに固有の利点があるが、それぞれの手法の固有の欠点にもかかわらず、このタスクに対して広く支持されている。
本稿では,SGIN(Semantics-Guided Inpainting Network)を提案する。
論文 参考訳(メタデータ) (2022-09-29T00:09:12Z) - StyleSwap: Style-Based Generator Empowers Robust Face Swapping [90.05775519962303]
StyleSwapという簡潔で効果的なフレームワークを紹介します。
私たちの中核となる考え方は、スタイルベースのジェネレータを活用して、高忠実で堅牢な顔交換を可能にすることです。
最小限の変更だけで、StyleGAN2アーキテクチャはソースとターゲットの両方から望まれる情報をうまく処理できる。
論文 参考訳(メタデータ) (2022-09-27T16:35:16Z) - FaceController: Controllable Attribute Editing for Face in the Wild [74.56117807309576]
単純なフィードフォワードネットワークを提案し、高忠実度な顔を生成する。
本手法では,既存かつ容易に把握可能な事前情報を利用することで,野生の多様な顔属性の制御,転送,編集を行うことができる。
本手法では,3Dプリミティブを用いてアイデンティティ,表現,ポーズ,イルミネーションを分離し,地域別スタイルコードを用いてテクスチャとカラーを分離する。
論文 参考訳(メタデータ) (2021-02-23T02:47:28Z) - One-shot Face Reenactment Using Appearance Adaptive Normalization [30.615671641713945]
本稿では,一発顔再現のための新しい生成的対向ネットワークを提案する。
1枚の顔画像を別のポーズ・アンド・エクスプレッションにアニメーションし、元の外観を保ちます。
論文 参考訳(メタデータ) (2021-02-08T03:36:30Z) - StyleGAN2 Distillation for Feed-forward Image Manipulation [5.5080625617632]
StyleGAN2は、現実的な画像を生成する最先端のネットワークである。
本稿では,StyleGAN2の特定の画像操作を,ペア方式で訓練した画像間ネットワークに蒸留する方法を提案する。
論文 参考訳(メタデータ) (2020-03-07T14:02:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。