論文の概要: DiffSwap++: 3D Latent-Controlled Diffusion for Identity-Preserving Face Swapping
- arxiv url: http://arxiv.org/abs/2511.05575v1
- Date: Tue, 04 Nov 2025 18:56:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.46164
- Title: DiffSwap++: 3D Latent-Controlled Diffusion for Identity-Preserving Face Swapping
- Title(参考訳): DiffSwap++: アイデンティティを保存する顔スワッピングのための3D遅延制御拡散
- Authors: Weston Bondurant, Arkaprava Sinha, Hieu Le, Srijan Das, Stephanie Schuckers,
- Abstract要約: そこで我々は,DiffSwap++を提案する。DiffSwap++は,トレーニング中に3D顔の潜伏機能を組み込んだ,拡散型フェイススワッピングパイプラインである。
本手法は, 形状整合性を高め, 外観特性から顔の識別のゆがみを改善する。
CelebA、FFHQ、CelebV-Textの実験では、DiffSwap++はターゲットのポーズと表現を維持しながらソースのアイデンティティを保ちながら、以前のメソッドよりも優れていた。
- 参考スコア(独自算出の注目度): 16.846179110602737
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion-based approaches have recently achieved strong results in face swapping, offering improved visual quality over traditional GAN-based methods. However, even state-of-the-art models often suffer from fine-grained artifacts and poor identity preservation, particularly under challenging poses and expressions. A key limitation of existing approaches is their failure to meaningfully leverage 3D facial structure, which is crucial for disentangling identity from pose and expression. In this work, we propose DiffSwap++, a novel diffusion-based face-swapping pipeline that incorporates 3D facial latent features during training. By guiding the generation process with 3D-aware representations, our method enhances geometric consistency and improves the disentanglement of facial identity from appearance attributes. We further design a diffusion architecture that conditions the denoising process on both identity embeddings and facial landmarks, enabling high-fidelity and identity-preserving face swaps. Extensive experiments on CelebA, FFHQ, and CelebV-Text demonstrate that DiffSwap++ outperforms prior methods in preserving source identity while maintaining target pose and expression. Additionally, we introduce a biometric-style evaluation and conduct a user study to further validate the realism and effectiveness of our approach. Code will be made publicly available at https://github.com/WestonBond/DiffSwapPP
- Abstract(参考訳): 拡散ベースのアプローチは、最近、顔交換において大きな成果を上げ、従来のGANベースの手法よりも視覚的品質が向上した。
しかし、最先端のモデルでさえ、特に挑戦的なポーズや表現の下で、きめ細かなアーティファクトやアイデンティティの保存に悩まされることが多い。
既存のアプローチの鍵となる制限は、3D顔の構造を有意義に活用できないことである。
本研究では,DiffSwap++を提案する。DiffSwap++は,トレーニング中に3D顔の潜伏機能を組み込んだ,新しい拡散型フェイススワッピングパイプラインである。
生成過程を3D対応表現で導くことにより、幾何学的整合性を高め、外観特性から顔のアイデンティティのゆがみを改善する。
我々はさらに、アイデンティティ埋め込みと顔のランドマークの両方にデノナイズ処理を規定する拡散アーキテクチャを設計し、高い忠実度とアイデンティティ保存の顔スワップを可能にする。
CelebA、FFHQ、CelebV-Textに関する大規模な実験は、DiffSwap++がターゲットのポーズと表現を維持しながらソースのアイデンティティを保ちながら、以前のメソッドよりも優れていることを示した。
さらに,バイオメトリックな評価手法を導入し,本手法の現実性と有効性をさらに検証するためのユーザスタディを実施している。
コードはhttps://github.com/WestonBond/DiffSwapPPで公開される。
関連論文リスト
- HiFiVFS: High Fidelity Video Face Swapping [35.49571526968986]
Face swappingは、ソースからのIDとターゲットからの属性を組み合わせた結果を生成することを目的としている。
安定ビデオ拡散の強い生成能力と時間的先行を生かした高忠実度ビデオ顔交換フレームワークを提案する。
本手法は,映像面スワップにおける最新技術(SOTA)を質的かつ定量的に達成する。
論文 参考訳(メタデータ) (2024-11-27T12:30:24Z) - OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - ID$^3$: Identity-Preserving-yet-Diversified Diffusion Models for Synthetic Face Recognition [60.15830516741776]
合成顔認識(SFR)は、実際の顔データの分布を模倣するデータセットを生成することを目的としている。
拡散燃料SFRモデルであるtextID3$を紹介します。
textID3$はID保存損失を利用して、多様だがアイデンティティに一貫性のある顔の外観を生成する。
論文 参考訳(メタデータ) (2024-09-26T06:46:40Z) - Realistic and Efficient Face Swapping: A Unified Approach with Diffusion Models [69.50286698375386]
フェース・スワッピングのための拡散モデルを改善する新しい手法を提案する。
インペイントトレーニング中にマスクシャッフル技術を導入し、スワップのためのいわゆるユニバーサルモデルを作成することができる。
私たちのアプローチは比較的統一されたアプローチなので、他のオフザシェルフモデルのエラーに対して耐性があります。
論文 参考訳(メタデータ) (2024-09-11T13:43:53Z) - 3D Priors-Guided Diffusion for Blind Face Restoration [30.94188504133298]
劣化した顔画像から鮮明な顔画像を復元するためのブラインド顔復元作業。
近年,GAN(Generative Adversarial Networks)を先行するアプローチが顕著な成功を収めている。
本稿では,3次元顔前処理を構造的制約と同一性制約として組み込んだ拡散に基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-02T07:13:32Z) - G2Face: High-Fidelity Reversible Face Anonymization via Generative and Geometric Priors [71.69161292330504]
可逆顔匿名化(Reversible face anonymization)は、顔画像の繊細なアイデンティティ情報を、合成された代替品に置き換えようとしている。
本稿では,Gtextsuperscript2Faceを提案する。
提案手法は,高データの有効性を保ちながら,顔の匿名化と回復において既存の最先端技術よりも優れる。
論文 参考訳(メタデータ) (2024-08-18T12:36:47Z) - DiffFAE: Advancing High-fidelity One-shot Facial Appearance Editing with Space-sensitive Customization and Semantic Preservation [84.0586749616249]
本稿では,高忠実度顔画像編集に適した1段階かつ高効率な拡散ベースフレームワークDiffFAEを提案する。
高忠実度クエリ属性転送には、空間感性物理カスタマイズ(SPC)を採用し、忠実度と一般化能力を保証している。
ソース属性を保存するために、Regional-responsive Semantic Composition (RSC)を導入する。
このモジュールは、切り離されたソースを無視する特徴を学習するためにガイドされ、髪、服、背景などの非顔的属性からアーティファクトを保存し緩和する。
論文 参考訳(メタデータ) (2024-03-26T12:53:10Z) - FitDiff: Robust monocular 3D facial shape and reflectance estimation using Diffusion Models [79.65289816077629]
拡散型3次元顔アバター生成モデルFitDiffを提案する。
本モデルでは,「近距離」2次元顔画像から抽出したアイデンティティ埋め込みを利用して,再現性のある顔アバターを高精度に生成する。
FitDiffは、顔認識の埋め込みを前提とした最初の3D LDMであり、一般的なレンダリングエンジンで使用可能な、ライティング可能な人間のアバターを再構築する。
論文 参考訳(メタデータ) (2023-12-07T17:35:49Z) - A Generative Framework for Self-Supervised Facial Representation Learning [18.094262972295702]
自己教師付き表現学習は、ペア化されたデータセットに頼ることなく、強力な一般化能力に注目されるようになった。
自己監督型顔表現学習は、顔のアイデンティティ、表情、ポーズや光といった外部要因の結合により未解決のままである。
自己教師型顔表現のための新しい生成フレームワークであるLatentFaceを提案する。
論文 参考訳(メタデータ) (2023-09-15T09:34:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。