論文の概要: A Closer Look at Geometric Temporal Dynamics for Face Anti-Spoofing
- arxiv url: http://arxiv.org/abs/2306.14313v1
- Date: Sun, 25 Jun 2023 18:59:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 15:32:28.413658
- Title: A Closer Look at Geometric Temporal Dynamics for Face Anti-Spoofing
- Title(参考訳): 顔アンチ・スプーフィングのための幾何学的時間ダイナミクス
- Authors: Chih-Jung Chang, Yaw-Chern Lee, Shih-Hsuan Yao, Min-Hung Chen,
Chien-Yi Wang, Shang-Hong Lai, Trista Pei-Chun Chen
- Abstract要約: 顔認識システムにはFAS(face anti-spoofing)が不可欠である。
本稿では,通常動作と異常動作を区別するGeometry-Aware Interaction Network (GAIN)を提案する。
提案手法は,標準内部およびクロスデータセット評価における最先端性能を実現する。
- 参考スコア(独自算出の注目度): 13.725319422213623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face anti-spoofing (FAS) is indispensable for a face recognition system. Many
texture-driven countermeasures were developed against presentation attacks
(PAs), but the performance against unseen domains or unseen spoofing types is
still unsatisfactory. Instead of exhaustively collecting all the spoofing
variations and making binary decisions of live/spoof, we offer a new
perspective on the FAS task to distinguish between normal and abnormal
movements of live and spoof presentations. We propose Geometry-Aware
Interaction Network (GAIN), which exploits dense facial landmarks with
spatio-temporal graph convolutional network (ST-GCN) to establish a more
interpretable and modularized FAS model. Additionally, with our cross-attention
feature interaction mechanism, GAIN can be easily integrated with other
existing methods to significantly boost performance. Our approach achieves
state-of-the-art performance in the standard intra- and cross-dataset
evaluations. Moreover, our model outperforms state-of-the-art methods by a
large margin in the cross-dataset cross-type protocol on CASIA-SURF 3DMask
(+10.26% higher AUC score), exhibiting strong robustness against domain shifts
and unseen spoofing types.
- Abstract(参考訳): 顔認識システムにはFAS(face anti-spoofing)が不可欠である。
プレゼンテーションアタック(pas)に対して多くのテクスチャ駆動対策が開発されたが、未認識ドメインや未認識のスプーフィングタイプに対する性能は依然として不十分である。
本研究は,すべてのスプーフのバリエーションを網羅的に収集し,ライブ/スプーフのバイナリ決定を行う代わりに,通常動作と異常動作を区別するFASタスクの新たな視点を提供する。
本稿では,時空間グラフ畳み込みネットワーク(ST-GCN)を用いた高密度顔のランドマークを利用したGAIN(Geometry-Aware Interaction Network)を提案する。
さらに、inter-attention機能インタラクションメカニズムにより、gainは他の既存のメソッドと簡単に統合でき、パフォーマンスを大幅に向上できます。
提案手法は,標準内部およびクロスデータセット評価における最先端性能を実現する。
さらに,本モデルはCASIA-SURF 3DMask(+10.26%高得点)上のクロスデータセット・クロスタイププロトコルにおいて,最先端の手法よりも優れた性能を示し,ドメインシフトに対する強い強靭性を示す。
関連論文リスト
- DiffFAS: Face Anti-Spoofing via Generative Diffusion Models [27.533334690705733]
Face Anti-Spoofing (FAS) は、顔認証システム(FR)が提示攻撃を防ぐ上で重要な役割を担っている。
画像の品質変化に対応するために,ネットワークに入力された事前情報として品質を定量化するDiffFASフレームワークを提案する。
クロスドメインなFASデータセットとクロスアタックなFASデータセットに対する我々のフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2024-09-13T06:45:23Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Adversarial Attacks on Both Face Recognition and Face Anti-spoofing Models [47.72177312801278]
顔認識(FR)システムに対するアドリアック攻撃は、純粋なFRモデルの妥協に非常に効果的であることが証明されている。
本稿では, FR モデルと Face Anti-Spoofing (FAS) モデルの両方を同時に攻撃する新しい設定を提案する。
我々は、FRモデルとFASモデルの両方に対するブラックボックス攻撃のキャパシティを改善するために、スタイル整列分散バイアス(SDB)と呼ばれる新しいアタック手法を導入する。
論文 参考訳(メタデータ) (2024-05-27T08:30:29Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Exposing Fine-Grained Adversarial Vulnerability of Face Anti-Spoofing
Models [13.057451851710924]
Face-Spoofingは、スプーフする顔画像(例えば、印刷された写真)をライブ画像と区別することを目的としている。
従来は対向攻撃法を用いて対面防汚性能の評価を行った。
本稿では,顔の反偽造モデルにおけるきめ細かな敵の脆弱性を明らかにするための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-30T04:56:33Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - Uncertainty-Aware Physically-Guided Proxy Tasks for Unseen Domain Face
Anti-spoofing [128.32381246318954]
Face Anti-Spoofing (FAS)は、偽の顔と偽の顔とを区別しようと試みている。
そこで本研究では,未確認領域のより高度な一般化を実現するために,物理手法を活用することを提案する。
論文 参考訳(メタデータ) (2020-11-28T03:22:26Z) - Face Anti-Spoofing Via Disentangled Representation Learning [90.90512800361742]
顔認識システムのセキュリティには、顔の偽造が不可欠だ。
本稿では,画像から生意気な特徴やコンテンツの特徴を乱す顔のアンチ・スプーフィングの新たな視点を提案する。
論文 参考訳(メタデータ) (2020-08-19T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。