論文の概要: On the Generalisation Capabilities of Fisher Vector based Face
Presentation Attack Detection
- arxiv url: http://arxiv.org/abs/2103.01721v1
- Date: Tue, 2 Mar 2021 13:49:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-05 06:31:13.067082
- Title: On the Generalisation Capabilities of Fisher Vector based Face
Presentation Attack Detection
- Title(参考訳): フィッシャーベクトルに基づく顔提示攻撃検出の一般化について
- Authors: L\'azaro J. Gonz\'alez-Soler, Marta Gomez-Barrero, Christoph Busch
- Abstract要約: 顔提示攻撃検出技術は、既知の提示攻撃機器で評価されたときに良好な検出性能を報告しています。
本研究では,フィッシャーベクトルに基づく特徴空間を,コンパクトな2値化統計画像から計算し,ヒストグラムを用いた。
フリーで利用可能な顔データベースから取られた未知の攻撃に挑戦するために評価されたこの新しい表現は、有望な結果を示している。
- 参考スコア(独自算出の注目度): 13.93832810177247
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the last decades, the broad development experienced by biometric systems
has unveiled several threats which may decrease their trustworthiness. Those
are attack presentations which can be easily carried out by a non-authorised
subject to gain access to the biometric system. In order to mitigate those
security concerns, most face Presentation Attack Detection techniques have
reported a good detection performance when they are evaluated on known
Presentation Attack Instruments (PAI) and acquisition conditions, in contrast
to more challenging scenarios where unknown attacks are included in the test
set. For those more realistic scenarios, the existing algorithms face
difficulties to detect unknown PAI species in many cases. In this work, we use
a new feature space based on Fisher Vectors, computed from compact Binarised
Statistical Image Features histograms, which allow discovering semantic feature
subsets from known samples in order to enhance the detection of unknown
attacks. This new representation, evaluated for challenging unknown attacks
taken from freely available facial databases, shows promising results: a
BPCER100 under 17% together with an AUC over 98% can be achieved in the
presence of unknown attacks. In addition, by training a limited number of
parameters, our method is able to achieve state-of-the-art deep learning-based
approaches for cross-dataset scenarios.
- Abstract(参考訳): 過去数十年間、生体認証システムによって経験された幅広い発展は、信頼性を低下させるいくつかの脅威を明らかにしてきた。
これらは、バイオメトリックシステムにアクセスする権限のない被験者によって簡単に実行できる攻撃プレゼンテーションです。
これらのセキュリティ上の懸念を軽減するため、ほとんどの顔提示攻撃検出技術は、既知の提示攻撃機器(PAI)および取得条件で評価された場合、未知の攻撃がテストセットに含まれるようなより困難なシナリオとは対照的に、優れた検出性能を報告している。
より現実的なシナリオでは、既存のアルゴリズムは未知のPAI種を検出するのに困難に直面します。
本研究では,2値化統計画像特徴ヒストグラムから計算したフィッシャーベクトルに基づく新しい特徴空間を用いて,未知の攻撃の検出を強化するために,既知のサンプルから意味的特徴部分集合を検出する。
この新たな表現は、無料で利用可能な顔データベースから得られる未知の攻撃に対して評価され、有望な結果を示している: AUCと17%未満のBPCER100と98%以上のAUCは、未知の攻撃の存在下で達成できる。
さらに,限られた数のパラメータをトレーニングすることにより,クロスデータセットシナリオに対する最先端のディープラーニングベースのアプローチを実現することができる。
関連論文リスト
- Robust Adversarial Attacks Detection for Deep Learning based Relative
Pose Estimation for Space Rendezvous [8.191688622709444]
本稿では,ディープニューラルネットワークを用いた相対ポーズ推定手法の逆攻撃検出のための新しい手法を提案する。
提案した対向攻撃検出器は99.21%の精度で検出できる。
論文 参考訳(メタデータ) (2023-11-10T11:07:31Z) - Contactless Fingerprint Biometric Anti-Spoofing: An Unsupervised Deep
Learning Approach [0.0]
本稿では、教師なしオートエンコーダと畳み込みブロックアテンションモジュールを組み合わせた革新的なアンチスプーフィング手法を提案する。
このスキームは平均で0.96%のBPCERを達成し、様々な種類のスプーフサンプルを含むプレゼンテーション攻撃では1.6%のAPCERを達成している。
論文 参考訳(メタデータ) (2023-11-07T17:19:59Z) - Backdoor Attacks Against Incremental Learners: An Empirical Evaluation
Study [79.33449311057088]
本稿では,11人の典型的なインクリメンタル学習者の3つの学習シナリオに対する中毒ベースのバックドア攻撃に対する高い脆弱性を実証的に明らかにする。
アクティベーションクラスタリングに基づく防御機構は,潜在的なセキュリティリスクを軽減するためのトリガーパターンの検出に有効であることがわかった。
論文 参考訳(メタデータ) (2023-05-28T09:17:48Z) - Attacking Face Recognition with T-shirts: Database, Vulnerability
Assessment and Detection [0.0]
我々は,100のユニークな提示攻撃器を用いた1,608のTシャツ攻撃の新しいTシャツ顔提示攻撃データベースを提案する。
このような攻撃は、顔認識システムのセキュリティを損なう可能性があり、いくつかの最先端の攻撃検出メカニズムが、新しい攻撃に対して堅牢に一般化できないことを示す。
論文 参考訳(メタデータ) (2022-11-14T14:11:23Z) - Random Projections for Adversarial Attack Detection [8.684378639046644]
敵の攻撃検出は 2つの観点から 根本的な問題です
本稿では,無作為射影の特殊特性を利用して,清潔で敵対的な例の挙動を特徴付ける手法を提案する。
性能評価は私達の技術が($>0.92$ AUC)技術(SOTA)攻撃戦略の競争状態を上回っていることを示します。
論文 参考訳(メタデータ) (2020-12-11T15:02:28Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - On the Generalisation Capabilities of Fingerprint Presentation Attack
Detection Methods in the Short Wave Infrared Domain [13.351759885287526]
ボナフィドとアタックを区別するためには,提示攻撃検出法が最も重要である。
我々は,PAI種45種を含む19,711個のボナフィドと4,339個のPAサンプルを用いて,複数のPADアルゴリズムの汎用性を評価した。
論文 参考訳(メタデータ) (2020-10-19T14:50:24Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。