論文の概要: SLIP: Spoof-Aware One-Class Face Anti-Spoofing with Language Image Pretraining
- arxiv url: http://arxiv.org/abs/2503.19982v1
- Date: Tue, 25 Mar 2025 18:09:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 13:20:44.401111
- Title: SLIP: Spoof-Aware One-Class Face Anti-Spoofing with Language Image Pretraining
- Title(参考訳): SLIP: 言語画像事前学習による一級顔偽造防止
- Authors: Pei-Kai Huang, Jun-Xiong Chong, Cheng-Hsuan Chiang, Tzu-Hsien Chen, Tyng-Luh Liu, Chiou-Ting Hsu,
- Abstract要約: Face Anti-Spoofing (FAS) は、顔認識システムのセキュリティと信頼性を確保する上で重要な役割を担っている。
一流のFASは、生の訓練画像のみから本質的な生活特徴を学習し、生の顔と生の顔を区別することに焦点を当てている。
本稿では,Language Image Pretraining (SLIP) を用いた一級顔アンチスプーフィングという新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 12.144338080864127
- License:
- Abstract: Face anti-spoofing (FAS) plays a pivotal role in ensuring the security and reliability of face recognition systems. With advancements in vision-language pretrained (VLP) models, recent two-class FAS techniques have leveraged the advantages of using VLP guidance, while this potential remains unexplored in one-class FAS methods. The one-class FAS focuses on learning intrinsic liveness features solely from live training images to differentiate between live and spoof faces. However, the lack of spoof training data can lead one-class FAS models to inadvertently incorporate domain information irrelevant to the live/spoof distinction (e.g., facial content), causing performance degradation when tested with a new application domain. To address this issue, we propose a novel framework called Spoof-aware one-class face anti-spoofing with Language Image Pretraining (SLIP). Given that live faces should ideally not be obscured by any spoof-attack-related objects (e.g., paper, or masks) and are assumed to yield zero spoof cue maps, we first propose an effective language-guided spoof cue map estimation to enhance one-class FAS models by simulating whether the underlying faces are covered by attack-related objects and generating corresponding nonzero spoof cue maps. Next, we introduce a novel prompt-driven liveness feature disentanglement to alleviate live/spoof-irrelative domain variations by disentangling live/spoof-relevant and domain-dependent information. Finally, we design an effective augmentation strategy by fusing latent features from live images and spoof prompts to generate spoof-like image features and thus diversify latent spoof features to facilitate the learning of one-class FAS. Our extensive experiments and ablation studies support that SLIP consistently outperforms previous one-class FAS methods.
- Abstract(参考訳): Face Anti-Spoofing (FAS) は、顔認識システムのセキュリティと信頼性を確保する上で重要な役割を担っている。
視覚言語事前訓練(VLP)モデルの進歩により、近年の2種類のFAS技術はVLP誘導の利点を生かし、一方、このポテンシャルは1クラスのFAS法では未解明のままである。
一流のFASは、生の訓練画像のみから本質的な生活特徴を学習し、生の顔と生の顔を区別することに焦点を当てている。
しかし、スプーフトレーニングデータの欠如により、一級のFASモデルでは、ライブ/スプーフの区別(例えば、顔の内容)に関係なく、ドメイン情報を不注意に組み込むことができ、新しいアプリケーションドメインでテストするとパフォーマンスが低下する。
この問題に対処するために,Language Image Pretraining (SLIP) を用いた一級顔アンチスプーフィングという新しいフレームワークを提案する。
まず,攻撃対象が攻撃対象であるか否かをシミュレートし,対応するノンゼロのスプーフキューマップを生成することで,一級のFASモデルを強化するための効果的な言語誘導スプーフキューマップ推定法を提案する。
次に,本研究では,生/生関連情報とドメイン依存情報を混在させることにより,生/生関連ドメインの変動を緩和する,新規なプロンプト駆動型生活機能障害を導入する。
最後に,生画像とスプーフプロンプトから潜伏特徴を融合させて,スプーフのような画像特徴を生成し,一級FASの学習を容易にするために潜伏特徴を多様化させることにより,効果的な拡張戦略を設計する。
我々の広範な実験とアブレーション研究は、SLIPが従来の一級FAS法を一貫して上回っていることを裏付けている。
関連論文リスト
- Interpretable Face Anti-Spoofing: Enhancing Generalization with Multimodal Large Language Models [58.936893810674896]
顔認識システムのセキュリティと信頼性を確保するためには,FAS(Face Anti-Spoofing)が不可欠である。
I-FAS(Interpretable Face Anti-Spoofing)と呼ばれるFASのためのマルチモーダルな大規模言語モデルフレームワークを提案する。
本稿では,FAS画像の高品質なキャプションを生成するために,Spof-Aware Captioning and Filtering(SCF)戦略を提案する。
論文 参考訳(メタデータ) (2025-01-03T09:25:04Z) - DiffFAS: Face Anti-Spoofing via Generative Diffusion Models [27.533334690705733]
Face Anti-Spoofing (FAS) は、顔認証システム(FR)が提示攻撃を防ぐ上で重要な役割を担っている。
画像の品質変化に対応するために,ネットワークに入力された事前情報として品質を定量化するDiffFASフレームワークを提案する。
クロスドメインなFASデータセットとクロスアタックなFASデータセットに対する我々のフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2024-09-13T06:45:23Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - Learning Facial Liveness Representation for Domain Generalized Face
Anti-spoofing [25.07432145233952]
Face Anti-Spoofing (FAS) は、顔のスプーフ攻撃と本物とを区別することを目的としている。
スプーフ攻撃の種類が事前に知られていると仮定するのは現実的ではない。
本稿では、前述のドメイン一般化顔偽造防止タスクに対処する深層学習モデルを提案する。
論文 参考訳(メタデータ) (2022-08-16T16:13:24Z) - PatchNet: A Simple Face Anti-Spoofing Framework via Fine-Grained Patch
Recognition [13.840830140721462]
フェース・アンチ・スプーフィング(FAS)は、提示攻撃から顔認識システムを保護する上で重要な役割を担っている。
そこで本稿では,顔の偽造をきめ細かなパッチ型認識問題として再構成するPatchNetを提案する。
論文 参考訳(メタデータ) (2022-03-27T15:16:17Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - Disentangled Representation with Dual-stage Feature Learning for Face
Anti-spoofing [18.545438302664756]
事前に定義されたスプーフ攻撃タイプに過度に適合しないように、より一般化され差別的な特徴を学ぶことが不可欠である。
本稿では,無関係な特徴からスプーフ関連特徴を効果的に解き放つことができる,新しい二段階不整形表現学習法を提案する。
論文 参考訳(メタデータ) (2021-10-18T10:22:52Z) - Uncertainty-Aware Physically-Guided Proxy Tasks for Unseen Domain Face
Anti-spoofing [128.32381246318954]
Face Anti-Spoofing (FAS)は、偽の顔と偽の顔とを区別しようと試みている。
そこで本研究では,未確認領域のより高度な一般化を実現するために,物理手法を活用することを提案する。
論文 参考訳(メタデータ) (2020-11-28T03:22:26Z) - Face Anti-Spoofing Via Disentangled Representation Learning [90.90512800361742]
顔認識システムのセキュリティには、顔の偽造が不可欠だ。
本稿では,画像から生意気な特徴やコンテンツの特徴を乱す顔のアンチ・スプーフィングの新たな視点を提案する。
論文 参考訳(メタデータ) (2020-08-19T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。