論文の概要: APPLE: Attribute-Preserving Pseudo-Labeling for Diffusion-Based Face Swapping
- arxiv url: http://arxiv.org/abs/2601.15288v1
- Date: Wed, 21 Jan 2026 18:59:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.51374
- Title: APPLE: Attribute-Preserving Pseudo-Labeling for Diffusion-Based Face Swapping
- Title(参考訳): APPLE: 拡散に基づく顔スワップのための擬似ラベル作成
- Authors: Jiwon Kang, Yeji Choi, JoungBin Lee, Wooseok Jang, Jinhyeok Choi, Taekeun Kang, Yongjae Park, Myungin Kim, Seungryong Kim,
- Abstract要約: 顔スワッピングは、ポーズ、表情、照明、肌のトーン、メイクといったターゲット固有の属性を保持しながら、元の顔のアイデンティティをターゲットの顔に転送することを目的としている。
本稿では,属性認識型擬似ラベル管理により属性の忠実度を高める拡散型教師学習フレームワークAPPLEを提案する。
- 参考スコア(独自算出の注目度): 33.893661624314234
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Face swapping aims to transfer the identity of a source face onto a target face while preserving target-specific attributes such as pose, expression, lighting, skin tone, and makeup. However, since real ground truth for face swapping is unavailable, achieving both accurate identity transfer and high-quality attribute preservation remains challenging. In addition, recent diffusion-based approaches attempt to improve visual fidelity through conditional inpainting on masked target images, but the masked condition removes crucial appearance cues of target, resulting in plausible yet misaligned attributes. To address these limitations, we propose APPLE (Attribute-Preserving Pseudo-Labeling), a diffusion-based teacher-student framework that enhances attribute fidelity through attribute-aware pseudo-label supervision. We reformulate face swapping as a conditional deblurring task to more faithfully preserve target-specific attributes such as lighting, skin tone, and makeup. In addition, we introduce an attribute-aware inversion scheme to further improve detailed attribute preservation. Through an elaborate attribute-preserving design for teacher learning, APPLE produces high-quality pseudo triplets that explicitly provide the student with direct face-swapping supervision. Overall, APPLE achieves state-of-the-art performance in terms of attribute preservation and identity transfer, producing more photorealistic and target-faithful results.
- Abstract(参考訳): 顔スワッピングは、ポーズ、表情、照明、肌のトーン、メイクといったターゲット固有の属性を保持しながら、元の顔のアイデンティティをターゲットの顔に転送することを目的としている。
しかし、顔交換の真理は利用できないため、正確なアイデンティティ転送と高品質な属性保存の両方を達成することは依然として困難である。
さらに,近年の拡散型アプローチでは,マスクされたターゲット画像の条件付き塗布による視力向上が試みられている。
これらの制約に対処するため,属性認識型擬似ラベル管理により属性の忠実度を高める拡散型教師学習フレームワークであるAPPLE(Attribute-Preserving Pseudo-Labeling)を提案する。
我々は、照明、肌の色調、化粧など、ターゲット固有の特性をより忠実に保存するために、条件付きデブロアリングタスクとして顔交換を再構成する。
さらに,属性認識型インバージョン方式を導入し,詳細な属性保存をさらに改善する。
教員養成のための詳細な属性保存設計を通じて、APPLEは、生徒に直接の対面スワッピング監視を提供する高品質な擬似三つ子を生産する。
全体として、APPLEは属性保存とアイデンティティ転送の観点から最先端のパフォーマンスを達成し、よりフォトリアリスティックでターゲットに忠実な結果を生み出す。
関連論文リスト
- FaceCrafter: Identity-Conditional Diffusion with Disentangled Control over Facial Pose, Expression, and Emotion [25.0180169554215]
本研究では,アイデンティティ保存を損なうことなく,ポーズ,表情,感情を正確に制御できる新しいアイデンティティ条件拡散モデルを提案する。
提案手法は,ポーズ,表情,感情に対する制御精度の点で既存の手法を超越し,アイデンティティのみの条件下での生成の多様性を向上させる。
論文 参考訳(メタデータ) (2025-05-21T09:43:21Z) - High-Fidelity Diffusion Face Swapping with ID-Constrained Facial Conditioning [39.09330483562798]
Face swappingは、ポーズや表現などのターゲット属性を保持しながら、ソースの顔認証をターゲットにシームレスに転送することを目的としている。
拡散モデルは、その優れた生成能力で知られており、最近、フェイススワッピングの品質を向上する可能性を示している。
本稿では,拡散型顔交換における2つの課題について述べる。
論文 参考訳(メタデータ) (2025-03-28T06:50:17Z) - DiffFAE: Advancing High-fidelity One-shot Facial Appearance Editing with Space-sensitive Customization and Semantic Preservation [84.0586749616249]
本稿では,高忠実度顔画像編集に適した1段階かつ高効率な拡散ベースフレームワークDiffFAEを提案する。
高忠実度クエリ属性転送には、空間感性物理カスタマイズ(SPC)を採用し、忠実度と一般化能力を保証している。
ソース属性を保存するために、Regional-responsive Semantic Composition (RSC)を導入する。
このモジュールは、切り離されたソースを無視する特徴を学習するためにガイドされ、髪、服、背景などの非顔的属性からアーティファクトを保存し緩和する。
論文 参考訳(メタデータ) (2024-03-26T12:53:10Z) - When StyleGAN Meets Stable Diffusion: a $\mathscr{W}_+$ Adapter for
Personalized Image Generation [60.305112612629465]
テキストと画像の拡散モデルは、多種多様で高品質でフォトリアリスティックな画像を生成するのに優れている。
本稿では,拡散モデルのための拡張されたアイデンティティ保存とアンタングル化を実現するために,StyleGAN 埋め込み空間 $mathcalW_+$ の新たな利用法を提案する。
提案手法は,即時記述に適合するだけでなく,一般的なスタイルGAN編集方向に対応可能なパーソナライズされたテキスト・ツー・イメージ出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T09:05:14Z) - Disentangle Before Anonymize: A Two-stage Framework for Attribute-preserved and Occlusion-robust De-identification [55.741525129613535]
匿名化前の混乱」は、新しい二段階フレームワーク(DBAF)である
このフレームワークには、Contrastive Identity Disentanglement (CID)モジュールとKey-authorized Reversible Identity Anonymization (KRIA)モジュールが含まれている。
大規模な実験により,本手法は最先端の非識別手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-11-15T08:59:02Z) - FaceDancer: Pose- and Occlusion-Aware High Fidelity Face Swapping [62.38898610210771]
そこで我々は,FaceDancerという顔のスワップとID転送のための新しい単一ステージ手法を提案する。
アダプティブ・フィーチャー・フュージョン・アテンション(AFFA)と解釈的特徴類似性規則化(IFSR)の2つの主要なコントリビューションがある。
論文 参考訳(メタデータ) (2022-10-19T11:31:38Z) - PA-GAN: Progressive Attention Generative Adversarial Network for Facial
Attribute Editing [67.94255549416548]
顔属性編集のためのプログレッシブアテンションGAN(PA-GAN)を提案する。
提案手法は,非関連情報による属性の正確な編集を,最先端技術と比較してはるかによく保存する。
論文 参考訳(メタデータ) (2020-07-12T03:04:12Z) - FaceShifter: Towards High Fidelity And Occlusion Aware Face Swapping [43.236261887752065]
本研究では,顔交換のための2段階フレームワークであるFaceShifterを提案する。
最初の段階では、ターゲット属性を徹底的かつ適応的に利用して、スワップされた顔を高忠実に生成する。
難解な顔合成に対処するために、HEAR-Net(Huristic Err Accnowledging Refinement Network)と呼ばれる新しいヒューリスティック・エラー認識ネットワーク(Heuristic Err Acknowledging Refinement Network)の第2ステージを付加する。
論文 参考訳(メタデータ) (2019-12-31T17:57:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。