論文の概要: A Closer Look at Geometric Temporal Dynamics for Face Anti-Spoofing
- arxiv url: http://arxiv.org/abs/2306.14313v1
- Date: Sun, 25 Jun 2023 18:59:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 15:32:28.413658
- Title: A Closer Look at Geometric Temporal Dynamics for Face Anti-Spoofing
- Title(参考訳): 顔アンチ・スプーフィングのための幾何学的時間ダイナミクス
- Authors: Chih-Jung Chang, Yaw-Chern Lee, Shih-Hsuan Yao, Min-Hung Chen,
Chien-Yi Wang, Shang-Hong Lai, Trista Pei-Chun Chen
- Abstract要約: 顔認識システムにはFAS(face anti-spoofing)が不可欠である。
本稿では,通常動作と異常動作を区別するGeometry-Aware Interaction Network (GAIN)を提案する。
提案手法は,標準内部およびクロスデータセット評価における最先端性能を実現する。
- 参考スコア(独自算出の注目度): 13.725319422213623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face anti-spoofing (FAS) is indispensable for a face recognition system. Many
texture-driven countermeasures were developed against presentation attacks
(PAs), but the performance against unseen domains or unseen spoofing types is
still unsatisfactory. Instead of exhaustively collecting all the spoofing
variations and making binary decisions of live/spoof, we offer a new
perspective on the FAS task to distinguish between normal and abnormal
movements of live and spoof presentations. We propose Geometry-Aware
Interaction Network (GAIN), which exploits dense facial landmarks with
spatio-temporal graph convolutional network (ST-GCN) to establish a more
interpretable and modularized FAS model. Additionally, with our cross-attention
feature interaction mechanism, GAIN can be easily integrated with other
existing methods to significantly boost performance. Our approach achieves
state-of-the-art performance in the standard intra- and cross-dataset
evaluations. Moreover, our model outperforms state-of-the-art methods by a
large margin in the cross-dataset cross-type protocol on CASIA-SURF 3DMask
(+10.26% higher AUC score), exhibiting strong robustness against domain shifts
and unseen spoofing types.
- Abstract(参考訳): 顔認識システムにはFAS(face anti-spoofing)が不可欠である。
プレゼンテーションアタック(pas)に対して多くのテクスチャ駆動対策が開発されたが、未認識ドメインや未認識のスプーフィングタイプに対する性能は依然として不十分である。
本研究は,すべてのスプーフのバリエーションを網羅的に収集し,ライブ/スプーフのバイナリ決定を行う代わりに,通常動作と異常動作を区別するFASタスクの新たな視点を提供する。
本稿では,時空間グラフ畳み込みネットワーク(ST-GCN)を用いた高密度顔のランドマークを利用したGAIN(Geometry-Aware Interaction Network)を提案する。
さらに、inter-attention機能インタラクションメカニズムにより、gainは他の既存のメソッドと簡単に統合でき、パフォーマンスを大幅に向上できます。
提案手法は,標準内部およびクロスデータセット評価における最先端性能を実現する。
さらに,本モデルはCASIA-SURF 3DMask(+10.26%高得点)上のクロスデータセット・クロスタイププロトコルにおいて,最先端の手法よりも優れた性能を示し,ドメインシフトに対する強い強靭性を示す。
関連論文リスト
- Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Exposing Fine-Grained Adversarial Vulnerability of Face Anti-Spoofing
Models [13.057451851710924]
Face-Spoofingは、スプーフする顔画像(例えば、印刷された写真)をライブ画像と区別することを目的としている。
従来は対向攻撃法を用いて対面防汚性能の評価を行った。
本稿では,顔の反偽造モデルにおけるきめ細かな敵の脆弱性を明らかにするための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-30T04:56:33Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - Disentangled Representation with Dual-stage Feature Learning for Face
Anti-spoofing [18.545438302664756]
事前に定義されたスプーフ攻撃タイプに過度に適合しないように、より一般化され差別的な特徴を学ぶことが不可欠である。
本稿では,無関係な特徴からスプーフ関連特徴を効果的に解き放つことができる,新しい二段階不整形表現学習法を提案する。
論文 参考訳(メタデータ) (2021-10-18T10:22:52Z) - Improving Transferability of Adversarial Patches on Face Recognition
with Generative Models [43.51625789744288]
転写性に基づいた対向パッチを用いた顔認識モデルのロバスト性の評価を行った。
代用モデルと対象モデルの応答のギャップが劇的に減少し,転送性が向上したことを示す。
論文 参考訳(メタデータ) (2021-06-29T02:13:05Z) - Uncertainty-Aware Physically-Guided Proxy Tasks for Unseen Domain Face
Anti-spoofing [128.32381246318954]
Face Anti-Spoofing (FAS)は、偽の顔と偽の顔とを区別しようと試みている。
そこで本研究では,未確認領域のより高度な一般化を実現するために,物理手法を活用することを提案する。
論文 参考訳(メタデータ) (2020-11-28T03:22:26Z) - Face Anti-Spoofing Via Disentangled Representation Learning [90.90512800361742]
顔認識システムのセキュリティには、顔の偽造が不可欠だ。
本稿では,画像から生意気な特徴やコンテンツの特徴を乱す顔のアンチ・スプーフィングの新たな視点を提案する。
論文 参考訳(メタデータ) (2020-08-19T03:54:23Z) - Face Anti-Spoofing with Human Material Perception [76.4844593082362]
フェース・アンチ・スプーフィング(FAS)は、プレゼンテーション攻撃から顔認識システムを保護する上で重要な役割を担っている。
我々は、顔の反偽造を物質認識問題として言い換え、それを古典的な人間の物質知覚と組み合わせる。
本稿では,本質的な素材に基づくパターンをキャプチャ可能なバイラテラル畳み込みネットワーク(BCN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T18:25:53Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。