論文の概要: Enhancing Mobile Face Anti-Spoofing: A Robust Framework for Diverse
Attack Types under Screen Flash
- arxiv url: http://arxiv.org/abs/2308.15346v1
- Date: Tue, 29 Aug 2023 14:41:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 13:44:23.070620
- Title: Enhancing Mobile Face Anti-Spoofing: A Robust Framework for Diverse
Attack Types under Screen Flash
- Title(参考訳): 画面フラッシュ下の多様な攻撃タイプのためのロバストなフレームワーク、mobile face anti-spoofingの強化
- Authors: Weihua Liu, Chaochao Lin, Yu Yan
- Abstract要約: 顔認証システムを確保するためには、顔の偽造防止(FAS)が不可欠である。
ATR-FASと呼ばれる軽フラッシュ下での攻撃型頑健な対面防止フレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.870705319423985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Face anti-spoofing (FAS) is crucial for securing face recognition systems.
However, existing FAS methods with handcrafted binary or pixel-wise labels have
limitations due to diverse presentation attacks (PAs). In this paper, we
propose an attack type robust face anti-spoofing framework under light flash,
called ATR-FAS. Due to imaging differences caused by various attack types,
traditional FAS methods based on single binary classification network may
result in excessive intra-class distance of spoof faces, leading to a challenge
of decision boundary learning. Therefore, we employed multiple networks to
reconstruct multi-frame depth maps as auxiliary supervision, and each network
experts in one type of attack. A dual gate module (DGM) consisting of a type
gate and a frame-attention gate is introduced, which perform attack type
recognition and multi-frame attention generation, respectively. The outputs of
DGM are utilized as weight to mix the result of multiple expert networks. The
multi-experts mixture enables ATR-FAS to generate spoof-differentiated depth
maps, and stably detects spoof faces without being affected by different types
of PAs. Moreover, we design a differential normalization procedure to convert
original flash frames into differential frames. This simple but effective
processing enhances the details in flash frames, aiding in the generation of
depth maps. To verify the effectiveness of our framework, we collected a
large-scale dataset containing 12,660 live and spoof videos with diverse PAs
under dynamic flash from the smartphone screen. Extensive experiments
illustrate that the proposed ATR-FAS significantly outperforms existing
state-of-the-art methods. The code and dataset will be available at
https://github.com/Chaochao-Lin/ATR-FAS.
- Abstract(参考訳): face anti-spoofing (fas) は顔認識システムを確保するために重要である。
しかし、手作りのバイナリやピクセルワイドラベルを持つ既存のFAS手法は、多種多様なプレゼンテーションアタック(PA)による制限がある。
本稿では,ATR-FASと呼ばれる光照射下でのアタック型頑健な顔反偽造フレームワークを提案する。
様々な攻撃タイプによる画像の違いにより、単一の二分分類ネットワークに基づく従来のFAS手法は、スプーフのクラス内距離が過大になり、決定境界学習が困難になる可能性がある。
そこで我々は,複数のネットワークを用いて複数フレームの深度マップを再構築し,各ネットワークの専門家を1種類の攻撃に利用した。
タイプゲートとフレームアテンションゲートからなるデュアルゲートモジュール(DGM)を導入し、それぞれ攻撃型認識と多フレームアテンション生成を行う。
DGMの出力は、複数の専門家ネットワークの結果を混合するために重みとして利用される。
マルチエキスパート混合物は、atr-fasがspoof微分深度マップを生成することができ、異なるタイプのpasに影響を受けずに安定してspoof顔を検出する。
さらに、元のフラッシュフレームを微分フレームに変換するための差分正規化手順も設計する。
このシンプルだが効果的な処理は、深度マップの生成を支援するフラッシュフレームの細部を強化する。
本フレームワークの有効性を検証するため,スマートフォン画面のダイナミックフラッシュの下で,12,660件のライブおよびスプーフビデオを含む大規模データセットを収集した。
大規模な実験により、提案されたATR-FASは既存の最先端手法を著しく上回っていることが示された。
コードとデータセットはhttps://github.com/Chaochao-Lin/ATR-FASで入手できる。
関連論文リスト
- Hyperbolic Face Anti-Spoofing [21.981129022417306]
双曲空間におけるよりリッチな階層的および差別的なスプーフィングキューを学習することを提案する。
単調なFAS学習では、特徴埋め込みはポアンカーボールに投影され、双対対対数回帰層は分類のためにカスケードされる。
双曲空間における消失勾配問題を緩和するために,双曲モデルのトレーニング安定性を高めるために,新しい特徴クリッピング法を提案する。
論文 参考訳(メタデータ) (2023-08-17T17:18:21Z) - Multispectral Imaging for Differential Face Morphing Attack Detection: A
Preliminary Study [7.681417534211941]
本稿では,D-MAD(D-MAD)のためのマルチスペクトルフレームワークを提案する。
提案したマルチスペクトルD-MADフレームワークは、7つの異なるスペクトルバンドを取得してモーフィング攻撃を検出するために、信頼できるキャプチャとしてキャプチャされたマルチスペクトル画像を導入する。
論文 参考訳(メタデータ) (2023-04-07T07:03:00Z) - Hierarchical Forgery Classifier On Multi-modality Face Forgery Clues [61.37306431455152]
我々は,HFC-MFFD (hierarchical Forgery for Multi-modality Face Forgery Detection) を提案する。
HFC-MFFDは、マルチモーダルシナリオにおけるフォージェリー認証を強化するために、堅牢なパッチベースのハイブリッド表現を学習する。
クラス不均衡問題を緩和し、さらに検出性能を高めるために、特定の階層的な顔偽造を提案する。
論文 参考訳(メタデータ) (2022-12-30T10:54:29Z) - PC-GANs: Progressive Compensation Generative Adversarial Networks for
Pan-sharpening [50.943080184828524]
空間情報とスペクトル情報の漸進的補償によりMS画像のシャープ化を行うパンシャーピングの新しい2段階モデルを提案する。
モデル全体が三重GANで構成されており、特定のアーキテクチャに基づいて、三重GANを同時に訓練できるように、共同補償損失関数が設計されている。
論文 参考訳(メタデータ) (2022-07-29T03:09:21Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - Disentangled Representation with Dual-stage Feature Learning for Face
Anti-spoofing [18.545438302664756]
事前に定義されたスプーフ攻撃タイプに過度に適合しないように、より一般化され差別的な特徴を学ぶことが不可欠である。
本稿では,無関係な特徴からスプーフ関連特徴を効果的に解き放つことができる,新しい二段階不整形表現学習法を提案する。
論文 参考訳(メタデータ) (2021-10-18T10:22:52Z) - Revisiting Pixel-Wise Supervision for Face Anti-Spoofing [75.89648108213773]
対面防止(FAS)は、提示攻撃(PA)から顔認識システムを保護する上で重要な役割を担っている
伝統的に、二分損失によって教師される深いモデルは、本質的および差別的なスプーフィングパターンを記述するのに弱い。
近年、よりきめ細かいピクセル/パッチレベルのキューを提供することを目的として、FASタスクに対してピクセル単位での監視が提案されている。
論文 参考訳(メタデータ) (2020-11-24T11:25:58Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - Learning One Class Representations for Face Presentation Attack
Detection using Multi-channel Convolutional Neural Networks [7.665392786787577]
プレゼンテーションアタック検出(PAD)メソッドは、目に見えないアタックを一般化するのに失敗することが多い。
マルチチャネル畳み込みニューラルネットワーク(MCCNN)で学習する一クラス分類器を用いたPADのための新しいフレームワークを提案する。
新たな損失関数が導入されたため、ネットワークは攻撃の表現から遠ざかって、ボナフィドクラスのコンパクトな埋め込みを学習せざるを得なくなった。
提案フレームワークは,ボナフィドおよび(既知の)攻撃クラスから堅牢なPADシステムを学習するための新しいアプローチを導入する。
論文 参考訳(メタデータ) (2020-07-22T14:19:33Z) - ASFD: Automatic and Scalable Face Detector [129.82350993748258]
ASFD(Automatic and Scalable Face Detector)を提案する。
ASFDはニューラルアーキテクチャ検索技術の組み合わせと新たな損失設計に基づいている。
ASFD-D0は120FPS以上で動作し、MobilenetはVGA解像度の画像を撮影しています。
論文 参考訳(メタデータ) (2020-03-25T06:00:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。