論文の概要: ActGAN: Flexible and Efficient One-shot Face Reenactment
- arxiv url: http://arxiv.org/abs/2003.13840v1
- Date: Mon, 30 Mar 2020 22:03:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 08:12:49.695911
- Title: ActGAN: Flexible and Efficient One-shot Face Reenactment
- Title(参考訳): ActGAN:柔軟で効率的なワンショット顔再現
- Authors: Ivan Kosarevych, Marian Petruk, Markian Kostiv, Orest Kupyn, Mykola
Maksymenko, Volodymyr Budzan
- Abstract要約: ActGANは、ワンショット顔再現のための新しいエンド・ツー・エンドな生成的敵ネットワーク(GAN)である。
我々は、ソースとターゲットの両方に任意の人が追加のトレーニングを受けることなく、"many-to-Many"アプローチを導入します。
また、深層顔認識領域における最先端のアプローチを採用することにより、合成された人物と対象人物の同一性を維持するためのソリューションも導入する。
- 参考スコア(独自算出の注目度): 1.8431600219151503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces ActGAN - a novel end-to-end generative adversarial
network (GAN) for one-shot face reenactment. Given two images, the goal is to
transfer the facial expression of the source actor onto a target person in a
photo-realistic fashion. While existing methods require target identity to be
predefined, we address this problem by introducing a "many-to-many" approach,
which allows arbitrary persons both for source and target without additional
retraining. To this end, we employ the Feature Pyramid Network (FPN) as a core
generator building block - the first application of FPN in face reenactment,
producing finer results. We also introduce a solution to preserve a person's
identity between synthesized and target person by adopting the state-of-the-art
approach in deep face recognition domain. The architecture readily supports
reenactment in different scenarios: "many-to-many", "one-to-one",
"one-to-another" in terms of expression accuracy, identity preservation, and
overall image quality. We demonstrate that ActGAN achieves competitive
performance against recent works concerning visual quality.
- Abstract(参考訳): 本稿では, ワンショット顔再現のための新しいGANであるActGANを紹介する。
2つの画像が与えられた場合、目的は俳優の表情を写実的に対象人物に転送することである。
既存の手法では、対象のアイデンティティを事前に定義する必要があるが、"many-to-many"アプローチを導入してこの問題に対処する。
この目的のために、我々はFPNの顔再現における最初の応用であるコアジェネレータビルディングブロックとしてFeature Pyramid Network (FPN)を採用している。
また,深層顔認識領域において最先端のアプローチを採用することにより,合成者と対象者との同一性を保つソリューションを提案する。
このアーキテクチャは、"many-to-Many"、"one-to-one"、"one-to-aother"、表現精度、アイデンティティ保存、全体的な画像品質など、さまざまなシナリオで容易に再現をサポートする。
本稿では,ActGANが視覚品質に関する最近の研究と競合する性能を発揮することを示す。
関連論文リスト
- ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Latent Diffusion Models for Attribute-Preserving Image Anonymization [4.080920304681247]
本稿では,遅延拡散モデル(LDM)に基づく画像匿名化への最初のアプローチを提案する。
CAFLaGE-Baseは、事前訓練された制御ネットと、実画像と匿名画像との距離を増やすために設計された新しい制御機構を組み合わせた2つのLCMを提案する。
論文 参考訳(メタデータ) (2024-03-21T19:09:21Z) - HyperReenact: One-Shot Reenactment via Jointly Learning to Refine and
Retarget Faces [47.27033282706179]
提案手法は,音源識別のリアルな音声頭部画像を生成することを目的とした,HyperReenactと呼ばれるニューラルフェイス再現法を提案する。
提案手法は, 単発設定(すなわち, 単一音源フレーム)の下で動作し, 被検体固有の微調整を必要とせず, クロスオブジェクトの再現を可能にする。
我々は,VoxCeleb1とVoxCeleb2の標準ベンチマークにおけるいくつかの最先端技術と比較した。
論文 参考訳(メタデータ) (2023-07-20T11:59:42Z) - ReliableSwap: Boosting General Face Swapping Via Reliable Supervision [9.725105108879717]
本稿では,訓練中に対象とソースの同一性が異なる場合のイメージレベルのガイダンスとして機能する,サイクルトリプレットと呼ばれる信頼性の高い監視機能を構築することを提案する。
具体的には,顔の再現とブレンディング技術を用いて,前もって実際の画像からスワップされた顔の合成を行う。
フェーススワッピングフレームワークであるReliableSwapは、既存のフェースワップネットワークの性能を無視できるオーバーヘッドで向上させることができる。
論文 参考訳(メタデータ) (2023-06-08T17:01:14Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - Semantic-aware One-shot Face Re-enactment with Dense Correspondence
Estimation [100.60938767993088]
ワンショットの顔の再現は、ソースと駆動する顔の同一性ミスマッチのため、難しい作業である。
本稿では,3次元形態素モデル(3DMM)を明示的な顔のセマンティックな分解とアイデンティティの絡み合いに利用することを提案する。
論文 参考訳(メタデータ) (2022-11-23T03:02:34Z) - StyleMask: Disentangling the Style Space of StyleGAN2 for Neural Face
Reenactment [47.27033282706179]
本研究では,顔の特徴をそのポーズから切り離すフレームワークを提案する。
提案手法は, 極端なポーズ変動であっても, 高品質な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-09-27T13:22:35Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - One-Shot Identity-Preserving Portrait Reenactment [16.889479797252783]
本研究では,対象物(ワンショット)の1枚の画像と運転対象物の映像から,人物像を再現するための深層学習型フレームワークを提案する。
本研究の目的は,一枚の画像から人物の身元を復元するクロスオブジェクト・ポートレート・リダクティフィケーションにおけるアイデンティティの保存に対処することである。
論文 参考訳(メタデータ) (2020-04-26T18:30:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。