論文の概要: Learning Unknown Spoof Prompts for Generalized Face Anti-Spoofing Using Only Real Face Images
- arxiv url: http://arxiv.org/abs/2505.03611v1
- Date: Tue, 06 May 2025 15:09:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.445007
- Title: Learning Unknown Spoof Prompts for Generalized Face Anti-Spoofing Using Only Real Face Images
- Title(参考訳): 顔画像のみを用いた汎用顔アンチスプーフィングのための未知のスポットプロンプトの学習
- Authors: Fangling Jiang, Qi Li, Weining Wang, Wei Shen, Bing Liu, Zhenan Sun,
- Abstract要約: 本研究では,未知のスプーフプロンプトを学習するための新しいアプローチを提案する。
本手法は,視覚言語モデルに埋め込まれた一般的な知識を活用することで,現実の顔と潜在的な未知のスプーフ攻撃に対するテキストプロンプトを生成する。
- 参考スコア(独自算出の注目度): 46.658223044347
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Face anti-spoofing is a critical technology for ensuring the security of face recognition systems. However, its ability to generalize across diverse scenarios remains a significant challenge. In this paper, we attribute the limited generalization ability to two key factors: covariate shift, which arises from external data collection variations, and semantic shift, which results from substantial differences in emerging attack types. To address both challenges, we propose a novel approach for learning unknown spoof prompts, relying solely on real face images from a single source domain. Our method generates textual prompts for real faces and potential unknown spoof attacks by leveraging the general knowledge embedded in vision-language models, thereby enhancing the model's ability to generalize to unseen target domains. Specifically, we introduce a diverse spoof prompt optimization framework to learn effective prompts. This framework constrains unknown spoof prompts within a relaxed prior knowledge space while maximizing their distance from real face images. Moreover, it enforces semantic independence among different spoof prompts to capture a broad range of spoof patterns. Experimental results on nine datasets demonstrate that the learned prompts effectively transfer the knowledge of vision-language models, enabling state-of-the-art generalization ability against diverse unknown attack types across unseen target domains without using any spoof face images.
- Abstract(参考訳): 顔の偽造防止は、顔認識システムのセキュリティを確保するための重要な技術である。
しかし、様々なシナリオにまたがって一般化する能力は依然として大きな課題である。
本稿では、外部データ収集のバリエーションから生じる共変量シフトと、出現する攻撃タイプに大きな違いをもたらす意味シフトという2つの主要な要因に、限定的な一般化能力があると考えている。
両課題に対処するために,未知のスプーフプロンプトを学習するための新しいアプローチを提案する。
本手法は,視覚言語モデルに埋め込まれた一般的な知識を活用して,現実の顔と潜在的未知のスプーフ攻撃に対するテキストプロンプトを生成する。
具体的には、効率的なプロンプトを学習するための多様なスプーフプロンプト最適化フレームワークを導入する。
この枠組みは、実際の顔画像からの距離を最大化しながら、緩和された事前知識空間内で未知のスプーフプロンプトを制約する。
さらに、異なるスプーフプロンプト間のセマンティック独立を強制し、幅広いスプーフパターンをキャプチャする。
9つのデータセットの実験結果から、学習したプロンプトが視覚言語モデルの知識を効果的に伝達し、スプーフフェースイメージを使わずに、未知の未知の攻撃タイプに対して最先端の一般化を可能にすることが示されている。
関連論文リスト
- Learning Knowledge-based Prompts for Robust 3D Mask Presentation Attack Detection [84.21257150497254]
本稿では,3次元マスク提示攻撃検出のための視覚言語モデルの強力な一般化能力を検討するための,知識に基づく新しいプロンプト学習フレームワークを提案する。
実験により,提案手法は最先端のシナリオ内およびクロスシナリオ検出性能を実現することを示す。
論文 参考訳(メタデータ) (2025-05-06T15:09:23Z) - Patch is Enough: Naturalistic Adversarial Patch against Vision-Language Pre-training Models [32.23201683108716]
本稿では,攻撃に画像パッチを専ら使用し,オリジナルテキストの完全性を維持する新しい戦略を提案する。
本手法は,拡散モデルからの事前知識を活用し,摂動の真性や自然性を高める。
画像・テキスト・シナリオのホワイトボックス・セッティングで実施した総合実験により,提案手法は既存の手法を著しく上回り,100%の攻撃成功率を達成した。
論文 参考訳(メタデータ) (2024-10-07T10:06:01Z) - Transferable Adversarial Facial Images for Privacy Protection [15.211743719312613]
視覚的品質を維持しつつ、転送性を改善した新しい顔プライバシー保護方式を提案する。
生成モデルの潜在空間をトラバースするために,まずグローバルな逆潜時探索を利用する。
次に、視覚的アイデンティティ情報を保存するための重要なランドマーク正規化モジュールを導入する。
論文 参考訳(メタデータ) (2024-07-18T02:16:11Z) - Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Anonymization Prompt Learning for Facial Privacy-Preserving Text-to-Image Generation [56.46932751058042]
我々は、テキストから画像への拡散モデルのための学習可能なプロンプトプレフィックスをトレーニングし、匿名化された顔のアイデンティティを生成するよう強制する。
実験では,非同一性固有の画像生成の品質を損なうことなく,特定の個人を匿名化するAPLの匿名化性能を実証した。
論文 参考訳(メタデータ) (2024-05-27T07:38:26Z) - Counterfactual Explanations for Face Forgery Detection via Adversarial Removal of Artifacts [23.279652897139286]
ディープフェイクとして知られる、非常にリアルなAI生成顔偽造は、深刻な社会的懸念を引き起こしている。
本稿では,人工物除去の観点からの顔偽造検出の非現実的説明を行う。
本手法は,90%以上の攻撃成功率と優れた攻撃伝達性を実現する。
論文 参考訳(メタデータ) (2024-04-12T09:13:37Z) - Generalized Face Liveness Detection via De-fake Face Generator [52.23271636362843]
以前の顔アンチスプーフィング(FAS)手法は、目に見えない領域に一般化するという課題に直面している。
本稿では,大規模に付加的な現実面を効果的に活用できるAnomalous cue Guided FAS (AG-FAS)法を提案する。
提案手法は,未知のシナリオと未知のプレゼンテーションアタックを用いたクロスドメイン評価において,最先端の結果を実現する。
論文 参考訳(メタデータ) (2024-01-17T06:59:32Z) - Towards Prompt-robust Face Privacy Protection via Adversarial Decoupling
Augmentation Framework [20.652130361862053]
顔認識保護アルゴリズムの防御性能を高めるために,Adversarial Decoupling Augmentation Framework (ADAF)を提案する。
ADAFは、様々な攻撃プロンプトに対する防御安定のために、多レベルテキスト関連の拡張を導入している。
論文 参考訳(メタデータ) (2023-05-06T09:00:50Z) - Learning Facial Liveness Representation for Domain Generalized Face
Anti-spoofing [25.07432145233952]
Face Anti-Spoofing (FAS) は、顔のスプーフ攻撃と本物とを区別することを目的としている。
スプーフ攻撃の種類が事前に知られていると仮定するのは現実的ではない。
本稿では、前述のドメイン一般化顔偽造防止タスクに対処する深層学習モデルを提案する。
論文 参考訳(メタデータ) (2022-08-16T16:13:24Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。