論文の概要: DiffSwap++: 3D Latent-Controlled Diffusion for Identity-Preserving Face Swapping
- arxiv url: http://arxiv.org/abs/2511.05575v1
- Date: Tue, 04 Nov 2025 18:56:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.46164
- Title: DiffSwap++: 3D Latent-Controlled Diffusion for Identity-Preserving Face Swapping
- Title(参考訳): DiffSwap++: アイデンティティを保存する顔スワッピングのための3D遅延制御拡散
- Authors: Weston Bondurant, Arkaprava Sinha, Hieu Le, Srijan Das, Stephanie Schuckers,
- Abstract要約: そこで我々は,DiffSwap++を提案する。DiffSwap++は,トレーニング中に3D顔の潜伏機能を組み込んだ,拡散型フェイススワッピングパイプラインである。
本手法は, 形状整合性を高め, 外観特性から顔の識別のゆがみを改善する。
CelebA、FFHQ、CelebV-Textの実験では、DiffSwap++はターゲットのポーズと表現を維持しながらソースのアイデンティティを保ちながら、以前のメソッドよりも優れていた。
- 参考スコア(独自算出の注目度): 16.846179110602737
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion-based approaches have recently achieved strong results in face swapping, offering improved visual quality over traditional GAN-based methods. However, even state-of-the-art models often suffer from fine-grained artifacts and poor identity preservation, particularly under challenging poses and expressions. A key limitation of existing approaches is their failure to meaningfully leverage 3D facial structure, which is crucial for disentangling identity from pose and expression. In this work, we propose DiffSwap++, a novel diffusion-based face-swapping pipeline that incorporates 3D facial latent features during training. By guiding the generation process with 3D-aware representations, our method enhances geometric consistency and improves the disentanglement of facial identity from appearance attributes. We further design a diffusion architecture that conditions the denoising process on both identity embeddings and facial landmarks, enabling high-fidelity and identity-preserving face swaps. Extensive experiments on CelebA, FFHQ, and CelebV-Text demonstrate that DiffSwap++ outperforms prior methods in preserving source identity while maintaining target pose and expression. Additionally, we introduce a biometric-style evaluation and conduct a user study to further validate the realism and effectiveness of our approach. Code will be made publicly available at https://github.com/WestonBond/DiffSwapPP
- Abstract(参考訳): 拡散ベースのアプローチは、最近、顔交換において大きな成果を上げ、従来のGANベースの手法よりも視覚的品質が向上した。
しかし、最先端のモデルでさえ、特に挑戦的なポーズや表現の下で、きめ細かなアーティファクトやアイデンティティの保存に悩まされることが多い。
既存のアプローチの鍵となる制限は、3D顔の構造を有意義に活用できないことである。
本研究では,DiffSwap++を提案する。DiffSwap++は,トレーニング中に3D顔の潜伏機能を組み込んだ,新しい拡散型フェイススワッピングパイプラインである。
生成過程を3D対応表現で導くことにより、幾何学的整合性を高め、外観特性から顔のアイデンティティのゆがみを改善する。
我々はさらに、アイデンティティ埋め込みと顔のランドマークの両方にデノナイズ処理を規定する拡散アーキテクチャを設計し、高い忠実度とアイデンティティ保存の顔スワップを可能にする。
CelebA、FFHQ、CelebV-Textに関する大規模な実験は、DiffSwap++がターゲットのポーズと表現を維持しながらソースのアイデンティティを保ちながら、以前のメソッドよりも優れていることを示した。
さらに,バイオメトリックな評価手法を導入し,本手法の現実性と有効性をさらに検証するためのユーザスタディを実施している。
コードはhttps://github.com/WestonBond/DiffSwapPPで公開される。
関連論文リスト
- OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - G2Face: High-Fidelity Reversible Face Anonymization via Generative and Geometric Priors [71.69161292330504]
可逆顔匿名化(Reversible face anonymization)は、顔画像の繊細なアイデンティティ情報を、合成された代替品に置き換えようとしている。
本稿では,Gtextsuperscript2Faceを提案する。
提案手法は,高データの有効性を保ちながら,顔の匿名化と回復において既存の最先端技術よりも優れる。
論文 参考訳(メタデータ) (2024-08-18T12:36:47Z) - FitDiff: Robust monocular 3D facial shape and reflectance estimation using Diffusion Models [79.65289816077629]
拡散型3次元顔アバター生成モデルFitDiffを提案する。
本モデルでは,「近距離」2次元顔画像から抽出したアイデンティティ埋め込みを利用して,再現性のある顔アバターを高精度に生成する。
FitDiffは、顔認識の埋め込みを前提とした最初の3D LDMであり、一般的なレンダリングエンジンで使用可能な、ライティング可能な人間のアバターを再構築する。
論文 参考訳(メタデータ) (2023-12-07T17:35:49Z) - A Generative Framework for Self-Supervised Facial Representation Learning [18.094262972295702]
自己教師付き表現学習は、ペア化されたデータセットに頼ることなく、強力な一般化能力に注目されるようになった。
自己監督型顔表現学習は、顔のアイデンティティ、表情、ポーズや光といった外部要因の結合により未解決のままである。
自己教師型顔表現のための新しい生成フレームワークであるLatentFaceを提案する。
論文 参考訳(メタデータ) (2023-09-15T09:34:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。