論文の概要: Generalized Face Liveness Detection via De-spoofing Face Generator
- arxiv url: http://arxiv.org/abs/2401.09006v1
- Date: Wed, 17 Jan 2024 06:59:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 16:52:01.839128
- Title: Generalized Face Liveness Detection via De-spoofing Face Generator
- Title(参考訳): de-spoofing face generatorによる顔のライブネス検出
- Authors: Xingming Long, Shiguang Shan and Jie Zhang
- Abstract要約: 以前のFace Anti-Spoofing (FAS) の作業は、目に見えない領域における一般化という課題に直面している。
De-spoofing Face Generator (DFG) によるモデル一般化を改善するために, 現実の顔を利用する Anomalous cue Guided FAS (AG-FAS) 方式を実行する。
次に,Anomalous cue Guided FAS feature extract Network (AG-Net)を提案する。
- 参考スコア(独自算出の注目度): 58.7043386978171
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous Face Anti-spoofing (FAS) works face the challenge of generalizing in
unseen domains. One of the major problems is that most existing FAS datasets
are relatively small and lack data diversity. However, we find that there are
numerous real faces that can be easily achieved under various conditions, which
are neglected by previous FAS works. In this paper, we conduct an Anomalous cue
Guided FAS (AG-FAS) method, which leverages real faces for improving model
generalization via a De-spoofing Face Generator (DFG). Specifically, the DFG
trained only on the real faces gains the knowledge of what a real face should
be like and can generate a "real" version of the face corresponding to any
given input face. The difference between the generated "real" face and the
input face can provide an anomalous cue for the downstream FAS task. We then
propose an Anomalous cue Guided FAS feature extraction Network (AG-Net) to
further improve the FAS feature generalization via a cross-attention
transformer. Extensive experiments on a total of nine public datasets show our
method achieves state-of-the-art results under cross-domain evaluations with
unseen scenarios and unknown presentation attacks.
- Abstract(参考訳): 以前のface anti-spoofing (fas) は、未発見の領域を一般化するという課題に直面している。
大きな問題の1つは、既存のFASデータセットが比較的小さく、データの多様性が欠けていることである。
しかし,これまでのfasでは無視された様々な条件下で容易に達成できる実顔が多数存在することが判明した。
本稿では,現実の顔を活用してデスプーフィングフェイスジェネレータ(DFG)によるモデル一般化を改善する,Anomalous cue Guided FAS(AG-FAS)手法を提案する。
具体的には、実顔のみに訓練されたdfgは、実顔がどんなものであるかの知識を得て、任意の入力顔に対応する「実顔」バージョンを生成することができる。
生成された「現実」の顔と入力面との差は、下流のfasタスクに異常な手がかりを与えることができる。
次に,Anomalous cue Guided FAS feature extract Network (AG-Net)を提案する。
9つの公開データセットの総合的な実験により、未知のシナリオと未知のプレゼンテーションアタックを用いたクロスドメイン評価により、最先端の結果が得られた。
関連論文リスト
- OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - Towards Data-Centric Face Anti-Spoofing: Improving Cross-domain Generalization via Physics-based Data Synthesis [64.46312434121455]
Face Anti-Spoofing (FAS) 研究は、トレーニングデータとテストデータの間にドメインギャップがあるクロスドメイン問題によって難題となっている。
本研究では,タスク固有のFASデータ拡張(FAS-Aug)を提案する。
また,特定の種類のアーティファクトをモデルが依存しないようにし,一般化性能を向上させるために,SARE(Spowing Attack Risk Equalization)を提案する。
論文 参考訳(メタデータ) (2024-09-04T01:45:18Z) - Watch Out for the Confusing Faces: Detecting Face Swapping with the
Probability Distribution of Face Identification Models [37.49012763328351]
顔識別確率分布に基づく顔交換検出手法を提案する。
IdP_FSDは、有限集合に属するスワップされた顔を検出するために特別に設計されている。
IdP_FSDは、顔交換に関わる2つの顔の同一性は、顔交換の共通性を利用する。
論文 参考訳(メタデータ) (2023-03-23T09:33:10Z) - Real Face Foundation Representation Learning for Generalized Deepfake
Detection [74.4691295738097]
ディープフェイク技術の出現は、個人のプライバシーと公共の安全に脅威をもたらすため、社会的な問題となっている。
十分な偽の顔を集めることはほぼ不可能であり、既存の検出器があらゆる種類の操作に一般化することは困難である。
本稿では,大規模な実顔データセットから一般表現を学習することを目的としたリアルフェイスファウンデーション表現学習(RFFR)を提案する。
論文 参考訳(メタデータ) (2023-03-15T08:27:56Z) - Learning Facial Liveness Representation for Domain Generalized Face
Anti-spoofing [25.07432145233952]
Face Anti-Spoofing (FAS) は、顔のスプーフ攻撃と本物とを区別することを目的としている。
スプーフ攻撃の種類が事前に知られていると仮定するのは現実的ではない。
本稿では、前述のドメイン一般化顔偽造防止タスクに対処する深層学習モデルを提案する。
論文 参考訳(メタデータ) (2022-08-16T16:13:24Z) - FaceFormer: Scale-aware Blind Face Restoration with Transformers [18.514630131883536]
そこで我々は,顔の特徴回復をスケール・アウェア・トランスフォーメーションとして定式化する,FaceFormerという新しい顔修復フレームワークを提案する。
提案手法は, 合成データセットを用いて, 現在の最先端画像よりも, 自然な低品質画像を一般化する。
論文 参考訳(メタデータ) (2022-07-20T10:08:34Z) - SuperFront: From Low-resolution to High-resolution Frontal Face
Synthesis [65.35922024067551]
本稿では,前頭前頭部を保存した高品質なアイデンティティを生成できるGANモデルを提案する。
具体的には,高分解能(HR)面を1対多のLR面から様々なポーズで合成するSuperFront-GANを提案する。
超高解像度のサイドビューモジュールをSF-GANに統合し、人事空間におけるアイデンティティ情報とサイドビューの詳細を保存します。
論文 参考訳(メタデータ) (2020-12-07T23:30:28Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。