論文の概要: Anomaly Detection-Based Unknown Face Presentation Attack Detection
- arxiv url: http://arxiv.org/abs/2007.05856v1
- Date: Sat, 11 Jul 2020 21:20:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 13:45:44.985383
- Title: Anomaly Detection-Based Unknown Face Presentation Attack Detection
- Title(参考訳): 異常検出に基づく未知顔提示攻撃検出
- Authors: Yashasvi Baweja, Poojan Oza, Pramuditha Perera and Vishal M. Patel
- Abstract要約: 異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
- 参考スコア(独自算出の注目度): 74.4918294453537
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Anomaly detection-based spoof attack detection is a recent development in
face Presentation Attack Detection (fPAD), where a spoof detector is learned
using only non-attacked images of users. These detectors are of practical
importance as they are shown to generalize well to new attack types. In this
paper, we present a deep-learning solution for anomaly detection-based spoof
attack detection where both classifier and feature representations are learned
together end-to-end. First, we introduce a pseudo-negative class during
training in the absence of attacked images. The pseudo-negative class is
modeled using a Gaussian distribution whose mean is calculated by a weighted
running mean. Secondly, we use pairwise confusion loss to further regularize
the training process. The proposed approach benefits from the representation
learning power of the CNNs and learns better features for fPAD task as shown in
our ablation study. We perform extensive experiments on four publicly available
datasets: Replay-Attack, Rose-Youtu, OULU-NPU and Spoof in Wild to show the
effectiveness of the proposed approach over the previous methods. Code is
available at: \url{https://github.com/yashasvi97/IJCB2020_anomaly}
- Abstract(参考訳): 異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出(fPAD)における最近の進歩であり、スプーフ検出は非攻撃画像のみを用いて学習される。
これらの検出器は、新しい攻撃タイプによく適応することが示されるため、実用上重要である。
本稿では,分類器と特徴表現の両方をエンドツーエンドで学習する,異常検出に基づくspoof攻撃検出のためのディープラーニングソリューションを提案する。
まず,攻撃画像がない場合のトレーニング中に擬似負のクラスを導入する。
擬似負クラスは、重み付きランニング平均によって平均が計算されるガウス分布を用いてモデル化される。
第2に,ペアワイズによる混乱損失を利用して,トレーニングプロセスをさらに調整する。
提案手法は,cnnの表現学習能力を活用し,アブレーション研究で示されたfpadタスクの優れた特徴を学習する。
Replay-Attack, Rose-Youtu, OULU-NPU, Spoof in Wildの4つの公開データセットに対して,提案手法の有効性を示す大規模な実験を行った。
コードは以下の通り。 \url{https://github.com/yashasvi97/IJCB2020_anomaly}
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - ExAD: An Ensemble Approach for Explanation-based Adversarial Detection [17.455233006559734]
説明手法のアンサンブルを用いて逆例を検出するフレームワークであるExADを提案する。
3つの画像データセットに対する6つの最先端の敵攻撃によるアプローチの評価を行った。
論文 参考訳(メタデータ) (2021-03-22T00:53:07Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - Detection of Iterative Adversarial Attacks via Counter Attack [4.549831511476249]
ディープニューラルネットワーク(DNN)は、非構造化データを処理する強力なツールであることが証明されている。
画像のような高次元データの場合、それらは本質的に敵対的な攻撃に対して脆弱である。
本研究では、CW攻撃が検出器自体として使用できるという数学的証明を概説する。
論文 参考訳(メタデータ) (2020-09-23T21:54:36Z) - AdvFlow: Inconspicuous Black-box Adversarial Attacks using Normalizing
Flows [11.510009152620666]
本稿では,画像分類器に対する新たなブラックボックス攻撃手法であるAdvFlowを紹介する。
提案手法では, クリーンなデータ分布に密接に従う敵が生成され, 検出の可能性が低下する。
論文 参考訳(メタデータ) (2020-07-15T02:13:49Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z) - Adversarial Detection and Correction by Matching Prediction
Distributions [0.0]
この検出器は、MNISTとFashion-MNISTに対するCarini-WagnerやSLIDEのような強力な攻撃をほぼ完全に中和する。
本手法は,攻撃者がモデルと防御の両方について十分な知識を持つホワイトボックス攻撃の場合においても,なおも敵の例を検出することができることを示す。
論文 参考訳(メタデータ) (2020-02-21T15:45:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。