論文の概要: CLIP-FTI: Fine-Grained Face Template Inversion via CLIP-Driven Attribute Conditioning
- arxiv url: http://arxiv.org/abs/2512.15433v1
- Date: Wed, 17 Dec 2025 13:26:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:27.00534
- Title: CLIP-FTI: Fine-Grained Face Template Inversion via CLIP-Driven Attribute Conditioning
- Title(参考訳): CLIP-FTI: CLIP-Driven Attribute Conditioningによるファイングラインド顔テンプレートインバージョン
- Authors: Longchen Dai, Zixuan Shen, Zhiheng Zhou, Peipeng Yu, Zhihua Xia,
- Abstract要約: 顔認識システムは、効率的なマッチングのために顔テンプレートを格納する。
逆転することでプライバシーを侵害し、偽装を可能にするサロゲートが生成される。
顔テンプレートインバージョンのためのCLIP駆動の微粒化属性条件付けフレームワークであるCLIP-FTIを提案する。
- 参考スコア(独自算出の注目度): 15.01028853162385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face recognition systems store face templates for efficient matching. Once leaked, these templates pose a threat: inverting them can yield photorealistic surrogates that compromise privacy and enable impersonation. Although existing research has achieved relatively realistic face template inversion, the reconstructed facial images exhibit over-smoothed facial-part attributes (eyes, nose, mouth) and limited transferability. To address this problem, we present CLIP-FTI, a CLIP-driven fine-grained attribute conditioning framework for face template inversion. Our core idea is to use the CLIP model to obtain the semantic embeddings of facial features, in order to realize the reconstruction of specific facial feature attributes. Specifically, facial feature attribute embeddings extracted from CLIP are fused with the leaked template via a cross-modal feature interaction network and projected into the intermediate latent space of a pretrained StyleGAN. The StyleGAN generator then synthesizes face images with the same identity as the templates but with more fine-grained facial feature attributes. Experiments across multiple face recognition backbones and datasets show that our reconstructions (i) achieve higher identification accuracy and attribute similarity, (ii) recover sharper component-level attribute semantics, and (iii) improve cross-model attack transferability compared to prior reconstruction attacks. To the best of our knowledge, ours is the first method to use additional information besides the face template attack to realize face template inversion and obtains SOTA results.
- Abstract(参考訳): 顔認識システムは、効率的なマッチングのために顔テンプレートを格納する。
逆転することで、プライバシーを侵害し、偽造を可能にするフォトリアリスティックなサロゲートが得られる。
既存の研究では、比較的現実的な顔テンプレートの逆転が達成されているが、再構成された顔画像は、過度に滑らかな顔の部分(目、鼻、口)と限られた移動性を示している。
この問題に対処するため、顔テンプレートの逆変換のためのCLIP-FTI(CLIP駆動の微粒化属性条件付きフレームワーク)を提案する。
私たちの中核となる考え方は、特定の顔の特徴の再構成を実現するために、CLIPモデルを用いて顔の特徴のセマンティックな埋め込みを得ることである。
具体的には、CLIPから抽出された顔特徴属性埋め込みを、クロスモーダル特徴相互作用ネットワークを介して漏洩テンプレートと融合し、事前訓練されたStyleGANの中間潜時空間に投影する。
StyleGANジェネレータはテンプレートと同じアイデンティティで顔画像を合成するが、よりきめ細かい顔の特徴属性を持つ。
複数の顔認証のバックボーンとデータセットによる実験結果から、再建の兆しが分かる
(i)より高い識別精度と属性類似性を達成する。
(ii)よりシャープなコンポーネントレベルの属性セマンティクスを回収し、
三 以前の再建攻撃と比較して、クロスモデル攻撃の伝達性を向上させること。
我々の知る限りでは、顔テンプレートの逆転を実現し、SOTA結果を得るために、顔テンプレートアタック以外の追加情報を利用する最初の方法である。
関連論文リスト
- FaceCloak: Learning to Protect Face Templates [14.52783380280229]
我々は、スマートで再生可能なバイナリクロークを生成することによって、顔テンプレートを保護するニューラルネットワークフレームワークであるtextscFaceCloakを紹介する。
textscFaceCloak-based matching is very fast (inference time =0.28 ms) and light (0.57 MB)
論文 参考訳(メタデータ) (2025-04-08T15:23:21Z) - iFADIT: Invertible Face Anonymization via Disentangled Identity Transform [51.123936665445356]
顔の匿名化は、個人のプライバシーを保護するために顔の視覚的アイデンティティを隠すことを目的としている。
Invertible Face Anonymization の頭字語 iFADIT を Disentangled Identity Transform を用いて提案する。
論文 参考訳(メタデータ) (2025-01-08T10:08:09Z) - OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - SlerpFace: Face Template Protection via Spherical Linear Interpolation [35.74859369424896]
本稿では,事前保護の無効化が可能な拡散モデルを用いて,新たなプライバシ攻撃形態を特定する。
この攻撃は、テンプレートから高品質でアイデンティティを保存する顔画像を合成し、人の外観を明らかにする。
提案手法は,新しい顔テンプレート保護技術であるSlerpFaceとして実装されている。
論文 参考訳(メタデータ) (2024-07-03T12:07:36Z) - Arc2Face: A Foundation Model for ID-Consistent Human Faces [95.00331107591859]
Arc2Faceは、ID条件のフェイスファンデーションモデルである。
既存のモデルと無矛盾の顔類似度で、多様なフォトリアリスティック画像を生成することができる。
論文 参考訳(メタデータ) (2024-03-18T10:32:51Z) - Learning to Aggregate and Personalize 3D Face from In-the-Wild Photo
Collection [65.92058628082322]
非パラメトリックフェースモデリングは形状仮定なしで画像からのみ3次元フェースを再構成することを目的としている。
本稿では,教師なしのロバストな3次元顔モデリングのための学習・アグリゲート・パーソナライズ・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T03:10:17Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。