論文の概要: AlphaFace: High Fidelity and Real-time Face Swapper Robust to Facial Pose
- arxiv url: http://arxiv.org/abs/2601.16429v1
- Date: Fri, 23 Jan 2026 04:01:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.534334
- Title: AlphaFace: High Fidelity and Real-time Face Swapper Robust to Facial Pose
- Title(参考訳): AlphaFace: 顔認証の精度とリアルタイムの顔スワッパーのロバスト化
- Authors: Jongmin Yu, Hyeontaek Oh, Zhongtian Sun, Angelica I Aviles-Rivero, Moongu Jeon, Jinhong Yang,
- Abstract要約: 既存のフェイススワッピング法は、極端な顔のポーズを扱う際にかなりの品質劣化を示す。
我々は、オープンソースの視覚言語モデルとCLIP画像とテキスト埋め込みを活用して、新しい視覚的および意味的コントラスト的損失を適用したAlphaFaceを紹介する。
AlphaFaceは、リアルタイムのパフォーマンスを維持しながら、より強力なアイデンティティ表現とより正確な保存を可能にする。
- 参考スコア(独自算出の注目度): 14.217348064503971
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Existing face-swapping methods often deliver competitive results in constrained settings but exhibit substantial quality degradation when handling extreme facial poses. To improve facial pose robustness, explicit geometric features are applied, but this approach remains problematic since it introduces additional dependencies and increases computational cost. Diffusion-based methods have achieved remarkable results; however, they are impractical for real-time processing. We introduce AlphaFace, which leverages an open-source vision-language model and CLIP image and text embeddings to apply novel visual and textual semantic contrastive losses. AlphaFace enables stronger identity representation and more precise attribute preservation, all while maintaining real-time performance. Comprehensive experiments across FF++, MPIE, and LPFF demonstrate that AlphaFace surpasses state-of-the-art methods in pose-challenging cases. The project is publicly available on `https://github.com/andrewyu90/Alphaface_Official.git'.
- Abstract(参考訳): 既存のフェイススワッピング方式は、制約された設定で競合する結果をもたらすことが多いが、極端な顔のポーズを扱う際には、かなり品質が劣化する。
顔のロバスト性を改善するために、明示的な幾何学的特徴を適用するが、追加の依存関係を導入し、計算コストを増大させるため、このアプローチは問題のままである。
拡散に基づく手法は目覚ましい結果を得たが、リアルタイム処理には実用的ではない。
我々は、オープンソースの視覚言語モデルとCLIP画像とテキスト埋め込みを活用して、新しい視覚的およびテキスト的セマンティック・コントラッシブ・ロスを適用したAlphaFaceを紹介する。
AlphaFaceは、リアルタイムのパフォーマンスを維持しながら、より強力なアイデンティティ表現とより正確な属性保存を可能にする。
FF++、MPIE、LPFFにわたる総合的な実験は、AlphaFaceがポーズマッチングのケースで最先端のメソッドを超えることを示した。
このプロジェクトは、https://github.com/andrewyu90/Alphaface_Official.git'で公開されている。
関連論文リスト
- DiffSwap++: 3D Latent-Controlled Diffusion for Identity-Preserving Face Swapping [16.846179110602737]
そこで我々は,DiffSwap++を提案する。DiffSwap++は,トレーニング中に3D顔の潜伏機能を組み込んだ,拡散型フェイススワッピングパイプラインである。
本手法は, 形状整合性を高め, 外観特性から顔の識別のゆがみを改善する。
CelebA、FFHQ、CelebV-Textの実験では、DiffSwap++はターゲットのポーズと表現を維持しながらソースのアイデンティティを保ちながら、以前のメソッドよりも優れていた。
論文 参考訳(メタデータ) (2025-11-04T18:56:49Z) - DynamicFace: High-Quality and Consistent Face Swapping for Image and Video using Composable 3D Facial Priors [24.721887093958284]
顔交換は、ターゲット顔の表情、ポーズ、髪、背景などの属性を保持しながら、ソース顔のアイデンティティをターゲット顔に転送する。
拡散モデルとプラグイン・アンド・プレイアダプティブ・アダプティブ・アテンション・レイヤのパワーを活用して画像と映像のスワップを実現するDynamicFaceを提案する。
私たちのフレームワークは、画像ドメインとビデオドメインの両方にシームレスに対応します。
論文 参考訳(メタデータ) (2025-01-15T03:28:14Z) - OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - G2Face: High-Fidelity Reversible Face Anonymization via Generative and Geometric Priors [71.69161292330504]
可逆顔匿名化(Reversible face anonymization)は、顔画像の繊細なアイデンティティ情報を、合成された代替品に置き換えようとしている。
本稿では,Gtextsuperscript2Faceを提案する。
提案手法は,高データの有効性を保ちながら,顔の匿名化と回復において既存の最先端技術よりも優れる。
論文 参考訳(メタデータ) (2024-08-18T12:36:47Z) - CLR-Face: Conditional Latent Refinement for Blind Face Restoration Using
Score-Based Diffusion Models [57.9771859175664]
最近の生成優先法は、有望なブラインドフェイス修復性能を示している。
入力に忠実なきめ細かい顔の詳細を生成することは、依然として難しい問題である。
本稿では,VQGANアーキテクチャの内部に拡散型プライマーを導入し,非破壊な潜伏埋め込みにおける分布の学習に重点を置いている。
論文 参考訳(メタデータ) (2024-02-08T23:51:49Z) - Learning to Aggregate and Personalize 3D Face from In-the-Wild Photo
Collection [65.92058628082322]
非パラメトリックフェースモデリングは形状仮定なしで画像からのみ3次元フェースを再構成することを目的としている。
本稿では,教師なしのロバストな3次元顔モデリングのための学習・アグリゲート・パーソナライズ・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T03:10:17Z) - Face Super-Resolution Guided by 3D Facial Priors [92.23902886737832]
シャープな顔構造を把握した3次元顔先行情報を明示的に組み込んだ新しい顔超解像法を提案する。
我々の研究は、顔属性のパラメトリック記述の融合に基づく3次元形態的知識を初めて探求したものである。
提案した3D先行画像は、最先端技術よりも優れた顔超解像結果が得られる。
論文 参考訳(メタデータ) (2020-07-18T15:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。