論文の概要: ExtSwap: Leveraging Extended Latent Mapper for Generating High Quality
Face Swapping
- arxiv url: http://arxiv.org/abs/2310.12736v1
- Date: Thu, 19 Oct 2023 13:33:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 15:16:41.425599
- Title: ExtSwap: Leveraging Extended Latent Mapper for Generating High Quality
Face Swapping
- Title(参考訳): ExtSwap: 高品質な顔スワップ生成のための拡張潜在マッパーの活用
- Authors: Aravinda Reddy PN, K.Sreenivasa Rao, Raghavendra Ramachandra, Pabitra
mitra
- Abstract要約: 事前学習したStyleGANの段階的に成長する構造を用いた顔交換方式を提案する。
我々は、アイデンティティと属性の特徴を別々に導き、意味論を解体する。
- 参考スコア(独自算出の注目度): 11.626508630081362
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel face swapping method using the progressively growing
structure of a pre-trained StyleGAN. Previous methods use different encoder
decoder structures, embedding integration networks to produce high-quality
results, but their quality suffers from entangled representation. We
disentangle semantics by deriving identity and attribute features separately.
By learning to map the concatenated features into the extended latent space, we
leverage the state-of-the-art quality and its rich semantic extended latent
space. Extensive experiments suggest that the proposed method successfully
disentangles identity and attribute features and outperforms many
state-of-the-art face swapping methods, both qualitatively and quantitatively.
- Abstract(参考訳): 事前学習したStyleGANの段階的に成長する構造を用いた顔交換方式を提案する。
従来の手法では、異なるエンコーダデコーダ構造を使用し、統合ネットワークを埋め込んで高品質な結果を生成するが、その品質は絡み合った表現に悩まされる。
我々はアイデンティティと属性の特徴を別々に導き、意味論を解体する。
連結した特徴を拡張潜在空間にマッピングすることで、最先端の品質とリッチなセマンティック拡張潜在空間を活用する。
大規模な実験により,提案手法は識別と属性の特徴を乱し,定性的かつ定量的に多くの顔交換法より優れていたことが示唆された。
関連論文リスト
- StyleRWKV: High-Quality and High-Efficiency Style Transfer with RWKV-like Architecture [29.178246094092202]
スタイル転送は、スタイルソースの芸術的表現ではなく、コンテンツを保存する新しいイメージを生成することを目的としている。
既存の手法の多くはトランスフォーマーや拡散モデルに基づいているが、2次計算の複雑さと高い推論時間に悩まされている。
本稿では,メモリ使用量と線形時間複雑性を制限した高品質なスタイル転送を実現するための新しいフレームワークであるStyleRWKVを提案する。
論文 参考訳(メタデータ) (2024-12-27T09:01:15Z) - Fusion is all you need: Face Fusion for Customized Identity-Preserving Image Synthesis [7.099258248662009]
テキスト・ツー・イメージ(T2I)モデルは人工知能の開発を著しく進歩させてきた。
しかし、既存のT2Iベースの手法は、参照画像から個人を正確に再現するのに苦労することが多い。
我々は、安定拡散から得られた事前学習されたUNetを利用して、対象の顔画像を直接生成プロセスに組み込む。
論文 参考訳(メタデータ) (2024-09-27T19:31:04Z) - High-Fidelity Face Swapping with Style Blending [16.024260677867076]
高忠実な顔交換のための革新的なエンドツーエンドフレームワークを提案する。
まず、スタイルGANベースの顔属性エンコーダを導入し、顔から重要な特徴を抽出し、潜在スタイルコードに変換する。
第二に、ターゲットからターゲットへFace IDを効果的に転送するアテンションベースのスタイルブレンディングモジュールを導入する。
論文 参考訳(メタデータ) (2023-12-17T23:22:37Z) - StyleSwap: Style-Based Generator Empowers Robust Face Swapping [90.05775519962303]
StyleSwapという簡潔で効果的なフレームワークを紹介します。
私たちの中核となる考え方は、スタイルベースのジェネレータを活用して、高忠実で堅牢な顔交換を可能にすることです。
最小限の変更だけで、StyleGAN2アーキテクチャはソースとターゲットの両方から望まれる情報をうまく処理できる。
論文 参考訳(メタデータ) (2022-09-27T16:35:16Z) - TransFA: Transformer-based Representation for Face Attribute Evaluation [87.09529826340304]
我々はtextbfTransFA を用いたtextbfattribute 評価のための新しい textbf Transformer 表現を提案する。
提案するTransFAは,最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-12T10:58:06Z) - High-resolution Face Swapping via Latent Semantics Disentanglement [50.23624681222619]
本稿では,事前学習したGANモデルの事前知識を用いた,新しい高分解能幻覚顔交換法を提案する。
我々は、ジェネレータの進行的な性質を利用して、潜在意味論を明示的に解き放つ。
我々は,2時間制約を潜時空間と画像空間に課すことにより,映像面スワップに拡張する。
論文 参考訳(メタデータ) (2022-03-30T00:33:08Z) - Learning Disentangled Representation for One-shot Progressive Face Swapping [92.09538942684539]
ジェネレーティブ・アドバーサリアル・ネットワークに基づくワンショット・フェイススワップのためのシンプルで効率的なFaceSwapperを提案する。
提案手法は,不整合表現モジュールと意味誘導融合モジュールから構成される。
本手法は,トレーニングサンプルの少ないベンチマークデータセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2022-03-24T11:19:04Z) - Multi-level Latent Space Structuring for Generative Control [53.240701050423155]
本稿では,StyleGAN生成アーキテクチャを活用して新たなトランケーション手法を提案する。
我々は、ガウスの学習可能な混合を用いて、StyleGANの拡張中間潜在空間であるW-空間を再生成することを学ぶ。
結果として生じる切り離しスキームは、元の未熟なサンプルをより忠実にし、品質と多様性のトレードオフをより良くする。
論文 参考訳(メタデータ) (2022-02-11T21:26:17Z) - Bi-level Feature Alignment for Versatile Image Translation and
Manipulation [88.5915443957795]
GAN(Generative Adversarial Network)は画像翻訳と操作において大きな成功を収めている。
忠実なスタイル制御を備えた高忠実な画像生成は、コンピュータビジョンにおいて依然として大きな課題である。
本稿では,高精度なセマンティック・スタイル・ガイダンスを実現する多機能な画像翻訳・操作フレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-07T05:26:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。