論文の概要: Face Anti-Spoofing with Human Material Perception
- arxiv url: http://arxiv.org/abs/2007.02157v1
- Date: Sat, 4 Jul 2020 18:25:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 13:36:43.489251
- Title: Face Anti-Spoofing with Human Material Perception
- Title(参考訳): 人体知覚による顔のアンチ・スプーフィング
- Authors: Zitong Yu, Xiaobai Li, Xuesong Niu, Jingang Shi, Guoying Zhao
- Abstract要約: フェース・アンチ・スプーフィング(FAS)は、プレゼンテーション攻撃から顔認識システムを保護する上で重要な役割を担っている。
我々は、顔の反偽造を物質認識問題として言い換え、それを古典的な人間の物質知覚と組み合わせる。
本稿では,本質的な素材に基づくパターンをキャプチャ可能なバイラテラル畳み込みネットワーク(BCN)を提案する。
- 参考スコア(独自算出の注目度): 76.4844593082362
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face anti-spoofing (FAS) plays a vital role in securing the face recognition
systems from presentation attacks. Most existing FAS methods capture various
cues (e.g., texture, depth and reflection) to distinguish the live faces from
the spoofing faces. All these cues are based on the discrepancy among physical
materials (e.g., skin, glass, paper and silicone). In this paper we rephrase
face anti-spoofing as a material recognition problem and combine it with
classical human material perception [1], intending to extract discriminative
and robust features for FAS. To this end, we propose the Bilateral
Convolutional Networks (BCN), which is able to capture intrinsic material-based
patterns via aggregating multi-level bilateral macro- and micro- information.
Furthermore, Multi-level Feature Refinement Module (MFRM) and multi-head
supervision are utilized to learn more robust features. Comprehensive
experiments are performed on six benchmark datasets, and the proposed method
achieves superior performance on both intra- and cross-dataset testings. One
highlight is that we achieve overall 11.3$\pm$9.5\% EER for cross-type testing
in SiW-M dataset, which significantly outperforms previous results. We hope
this work will facilitate future cooperation between FAS and material
communities.
- Abstract(参考訳): face anti-spoofing(fas)は、顔認識システムをプレゼンテーション攻撃から守る上で重要な役割を担っている。
既存のFAS法の多くは、様々な手がかり(例えば、テクスチャ、深さ、反射)を捉え、生きた顔と陰影のある顔とを区別する。
これらすべての手がかりは、物理的材料(例えば、皮膚、ガラス、紙、シリコンなど)の相違に基づいている。
本稿では,fasの識別的かつロバストな特徴を抽出すべく,素材認識問題として顔のアンチスプーフィングを再現し,それと古典的ヒューマンマテリアル知覚を組み合わせる。
そこで本研究では,多段階のマクロ情報とマイクロ情報を集約することで,本質的な素材ベースパターンをキャプチャ可能なバイラテラル畳み込みネットワーク(BCN)を提案する。
さらに,MFRM(Multi-level Feature Refinement Module)とMulti-head supervisionを用いて,より堅牢な特徴を学習する。
6つのベンチマークデータセットで包括的な実験を行い、提案手法は、データセット内テストとデータセット間テストの両方において優れた性能を達成する。
1つのハイライトは、siw-mデータセットにおけるクロスタイプテストの合計11.3$\pm$9.5\% eerを達成することである。
この取り組みがFASと材料コミュニティの今後の協力を促進することを願っている。
関連論文リスト
- SHIELD : An Evaluation Benchmark for Face Spoofing and Forgery Detection
with Multimodal Large Language Models [63.946809247201905]
フェーススプーフィングと偽造検出におけるMLLMの能力を評価するための新しいベンチマーク、ShielDを導入する。
我々は、これらの2つの顔セキュリティタスクにおいて、マルチモーダル顔データを評価するために、真/偽/複数選択の質問を設計する。
その結果,MLLMは顔セキュリティ領域において大きな可能性を秘めていることがわかった。
論文 参考訳(メタデータ) (2024-02-06T17:31:36Z) - A Closer Look at Geometric Temporal Dynamics for Face Anti-Spoofing [13.725319422213623]
顔認識システムにはFAS(face anti-spoofing)が不可欠である。
本稿では,通常動作と異常動作を区別するGeometry-Aware Interaction Network (GAIN)を提案する。
提案手法は,標準内部およびクロスデータセット評価における最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-25T18:59:52Z) - Wild Face Anti-Spoofing Challenge 2023: Benchmark and Results [73.98594459933008]
顔認証システム(FAS)は、顔認識システムの完全性を保護するための重要なメカニズムである。
この制限は、公開可能なFASデータセットの不足と多様性の欠如に起因する可能性がある。
制約のない環境で収集された大規模で多様なFASデータセットであるWild Face Anti-Spoofingデータセットを紹介した。
論文 参考訳(メタデータ) (2023-04-12T10:29:42Z) - Benchmarking Joint Face Spoofing and Forgery Detection with Visual and
Physiological Cues [81.15465149555864]
視覚的外観と生理的rcuesを用いた第1回関節スプーフィングおよび検出ベンチマークを作成した。
r周期性判別を強化するために,顔の強信号マップと連続ウェーブレットを入力として変換した2分岐生理ネットワークを設計した。
論文 参考訳(メタデータ) (2022-08-10T15:41:48Z) - Consistency Regularization for Deep Face Anti-Spoofing [69.70647782777051]
顔認証システムでは、顔認証(FAS)が重要な役割を担っている。
このエキサイティングな観察によって、異なる視点の特徴整合性を促進することが、FASモデルを促進するための有望な方法かもしれないと推測する。
FASにおけるEPCR(Embeddding-level and Prediction-level Consistency Regularization)とEPCR(Embeddding-level Consistency Regularization)を併用した。
論文 参考訳(メタデータ) (2021-11-24T08:03:48Z) - Learning Meta Pattern for Face Anti-Spoofing [26.82129880310214]
顔認証システムにはFAS(Face Anti-Spoofing)が不可欠である。
近年,タスク対応手工芸品の特徴を抽出するためのハイブリッド手法が研究されている。
学習から学習までのフレームワークでメタパターン(MP)を抽出する学習可能なネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T14:34:20Z) - Two-stream Convolutional Networks for Multi-frame Face Anti-spoofing [1.9890930069402575]
本研究では,ライブとスプーフの顔の違いを効果的に把握する2ストリームモデルを提案する。
提案手法をSiw, Oulu-NPU, CASIA-MFSD, Replay-Attackのデータセット上で評価した。
論文 参考訳(メタデータ) (2021-08-09T13:35:30Z) - CASIA-SURF CeFA: A Benchmark for Multi-modal Cross-ethnicity Face
Anti-spoofing [83.05878126420706]
CeFA (CASIA-SURF Cross-ethnicity Face Anti-spoofing dataset) について紹介する。
CeFAは、顔の偽造防止のための、現在の公開/リリースデータセットに明示的な民族ラベルを含む最初のデータセットである。
本稿では,これらのバイアスを緩和する強力なベースラインとして,新しいマルチモーダル融合法を提案する。
論文 参考訳(メタデータ) (2020-03-11T06:58:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。