論文の概要: Cascade EF-GAN: Progressive Facial Expression Editing with Local Focuses
- arxiv url: http://arxiv.org/abs/2003.05905v2
- Date: Wed, 25 Mar 2020 15:08:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 15:17:57.986622
- Title: Cascade EF-GAN: Progressive Facial Expression Editing with Local Focuses
- Title(参考訳): Cascade EF-GAN: 局所焦点による顔表情のプログレッシブな編集
- Authors: Rongliang Wu, Gongjie Zhang, Shijian Lu, Tao Chen
- Abstract要約: 本稿では,局所的な表現に焦点を当てたプログレッシブな表情編集を行う新しいネットワークを提案する。
ローカルフォーカスの導入により、Cascade EF-GANはアイデンティティ関連の機能をよりよく保存できる。
さらに, 大規模な顔表情変換を, カスケード内の複数の小さな顔に分割することで, 斬新なカスケード変換戦略を設計する。
- 参考スコア(独自算出の注目度): 49.077232276128754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in Generative Adversarial Nets (GANs) have shown remarkable
improvements for facial expression editing. However, current methods are still
prone to generate artifacts and blurs around expression-intensive regions, and
often introduce undesired overlapping artifacts while handling large-gap
expression transformations such as transformation from furious to laughing. To
address these limitations, we propose Cascade Expression Focal GAN (Cascade
EF-GAN), a novel network that performs progressive facial expression editing
with local expression focuses. The introduction of the local focus enables the
Cascade EF-GAN to better preserve identity-related features and details around
eyes, noses and mouths, which further helps reduce artifacts and blurs within
the generated facial images. In addition, an innovative cascade transformation
strategy is designed by dividing a large facial expression transformation into
multiple small ones in cascade, which helps suppress overlapping artifacts and
produce more realistic editing while dealing with large-gap expression
transformations. Extensive experiments over two publicly available facial
expression datasets show that our proposed Cascade EF-GAN achieves superior
performance for facial expression editing.
- Abstract(参考訳): 最近のGAN(Generative Adversarial Nets)の進歩は表情編集に顕著な改善をもたらした。
しかし、現在の手法は、表現集約的な領域でアーティファクトやぼやけを発生させる傾向にあり、しばしば望ましくない重複したアーティファクトを導入する一方で、激怒から笑いへの変換のような大きなガップ表現変換を扱う。
これらの制約に対処するために,局所表現に焦点を当てたプログレッシブ表情編集を行う新しいネットワークであるCascade Expression Focal GAN(Cascade EF-GAN)を提案する。
局所焦点の導入により、Cascade EF-GANは、目、鼻、口の周りのアイデンティティに関連する特徴や詳細をよりよく保存し、生成した顔画像内のアーティファクトやぼやけを低減できる。
さらに,大域的な表情変換を複数の小領域に分割することで,重なり合うアーティファクトの抑制と,大域的な表現変換を処理しながらよりリアルな編集を実現する,革新的なカスケード変換戦略を考案した。
2つの顔表情データセットに関する広範囲な実験により,提案するカスケードef-ganは,表情編集において優れた性能を発揮することが示された。
関連論文リスト
- E2F-Net: Eyes-to-Face Inpainting via StyleGAN Latent Space [4.110419543591102]
我々は、E2F-Net(Eyes-to-Face Network)と呼ばれるGANベースのモデルを提案する。
提案手法は,2つの専用エンコーダを用いて眼周囲領域から同一性および非同一性の特徴を抽出する。
提案手法は,現在の手法を超越して,高品質な顔全体の再構築に成功していることを示す。
論文 参考訳(メタデータ) (2024-03-18T19:11:34Z) - GaFET: Learning Geometry-aware Facial Expression Translation from
In-The-Wild Images [55.431697263581626]
本稿では,パラメトリックな3次元顔表現をベースとした新しい顔表情翻訳フレームワークを提案する。
我々は、最先端の手法と比較して、高品質で正確な表情伝達結果を実現し、様々なポーズや複雑なテクスチャの適用性を実証する。
論文 参考訳(メタデータ) (2023-08-07T09:03:35Z) - One-Shot High-Fidelity Talking-Head Synthesis with Deformable Neural
Radiance Field [81.07651217942679]
トーキングヘッド生成は、ソース画像の識別情報を保持し、駆動画像の動作を模倣する顔を生成することを目的としている。
我々は高忠実かつ自由視点の対話ヘッド合成を実現するHiDe-NeRFを提案する。
論文 参考訳(メタデータ) (2023-04-11T09:47:35Z) - FEAT: Face Editing with Attention [70.89233432407305]
StyleGAN ジェネレータ上に構築し,顔の操作を意図した領域に集中させる手法を提案する。
編集された画像の生成中、アテンションマップは、元の特徴と修正された特徴とのブレンドをガイドするマスクとして機能する。
論文 参考訳(メタデータ) (2022-02-06T06:07:34Z) - LEED: Label-Free Expression Editing via Disentanglement [57.09545215087179]
LEEDフレームワークは、表現ラベルを必要とせずに、前頭顔画像とプロファイル顔画像の両方の表現を編集することができる。
2つの新たな損失は、最適な表現の切り離しと一貫した合成のために設計されている。
論文 参考訳(メタデータ) (2020-07-17T13:36:15Z) - InterFaceGAN: Interpreting the Disentangled Face Representation Learned
by GANs [73.27299786083424]
我々は、最先端のGANモデルによって学習された不整合顔表現を解釈するInterFaceGANというフレームワークを提案する。
まず、GANは潜在空間の線型部分空間で様々な意味学を学ぶ。
次に、異なる意味論間の相関関係について詳細な研究を行い、部分空間射影を通してそれらをよりよく解離させる。
論文 参考訳(メタデータ) (2020-05-18T18:01:22Z) - Fine-Grained Expression Manipulation via Structured Latent Space [30.789513209376032]
本稿では,表現の微粒化を操作するために,エンド・ツー・エンドな表現誘導型生成対向ネットワーク(EGGAN)を提案する。
提案手法は,微粒な表現を操作でき,ソースとターゲットの表現間の連続的な中間表現を生成する。
論文 参考訳(メタデータ) (2020-04-21T06:18:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。