論文の概要: Unseen Face Presentation Attack Detection Using Class-Specific Sparse
One-Class Multiple Kernel Fusion Regression
- arxiv url: http://arxiv.org/abs/1912.13276v1
- Date: Tue, 31 Dec 2019 11:53:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 20:50:57.008034
- Title: Unseen Face Presentation Attack Detection Using Class-Specific Sparse
One-Class Multiple Kernel Fusion Regression
- Title(参考訳): クラス特異的スパース1クラス多重核融合回帰を用いた顔提示攻撃検出
- Authors: Shervin Rahimzadeh Arashloo
- Abstract要約: 本論文は、目に見えない攻撃シナリオの困難な状況下での顔提示攻撃検出に対処する。
カーネル回帰に基づく一級顔提示攻撃検出手法を開発した。
- 参考スコア(独自算出の注目度): 15.000818334408802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paper addresses face presentation attack detection in the challenging
conditions of an unseen attack scenario where the system is exposed to novel
presentation attacks that were not present in the training step. For this
purpose, a pure one-class face presentation attack detection approach based on
kernel regression is developed which only utilises bona fide (genuine) samples
for training. In the context of the proposed approach, a number of innovations,
including multiple kernel fusion, client-specific modelling, sparse
regularisation and probabilistic modelling of score distributions are
introduced to improve the efficacy of the method. The results of experimental
evaluations conducted on the OULU-NPU, Replay-Mobile, Replay-Attack and
MSU-MFSD datasets illustrate that the proposed method compares very favourably
with other methods operating in an unseen attack detection scenario while
achieving very competitive performance to multi-class methods (benefiting from
presentation attack data for training) despite using only bona fide samples for
training.
- Abstract(参考訳): 本稿は,学習段階に存在しない新たな提示攻撃にシステムが曝露する未発見攻撃シナリオの課題条件において,顔提示攻撃の検出について述べる。
この目的のために,カーネルレグレッションに基づく純粋に1クラス顔提示攻撃検出手法を開発し,トレーニングにボナfide (genuine) サンプルのみを使用する。
提案手法では, マルチカーネル融合, クライアント固有のモデリング, スパース正規化, スコア分布の確率的モデリングなど, 多数のイノベーションを導入して, 提案手法の有効性を向上させる。
OULU-NPU, Replay-Mobile, Replay-Attack, MSU-MFSDデータセットを用いて行った実験結果から,本手法はトレーニング用ボナファイドサンプルのみを使用しながら,マルチクラス手法(トレーニング用プレゼンテーションアタックデータに適合する)と非常に競合する性能を保ちながら, 目に見えない攻撃検出シナリオで動作する他の手法と非常に好適に比較した。
関連論文リスト
- Boosting Out-of-Distribution Detection with Multiple Pre-trained Models [41.66566916581451]
事前訓練されたモデルを用いたポストホック検出は有望な性能を示し、大規模にスケールできる。
本稿では,事前訓練されたモデルの動物園から抽出した複数の検出決定をアンサンブルすることで,検出強化手法を提案する。
CIFAR10 と ImageNet のベンチマークでは, 相対性能を 65.40% と 26.96% で大幅に改善した。
論文 参考訳(メタデータ) (2022-12-24T12:11:38Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - ATRO: Adversarial Training with a Rejection Option [10.36668157679368]
本稿では, 逆例による性能劣化を軽減するために, 拒否オプション付き分類フレームワークを提案する。
分類器と拒否関数を同時に適用することにより、テストデータポイントの分類に自信が不十分な場合に分類を控えることができる。
論文 参考訳(メタデータ) (2020-10-24T14:05:03Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - CSI: Novelty Detection via Contrastive Learning on Distributionally
Shifted Instances [77.28192419848901]
コントラストシフトインスタンス (CSI) という,単純かつ効果的な手法を提案する。
従来のコントラスト学習法のように,サンプルを他の例と対比することに加えて,本トレーニング手法では,サンプルを分散シフトによる拡張と対比する。
本実験は, 種々の新規検出シナリオにおける本手法の優位性を実証する。
論文 参考訳(メタデータ) (2020-07-16T08:32:56Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - Robust Ensemble Model Training via Random Layer Sampling Against
Adversarial Attack [38.1887818626171]
本稿では,深層ニューラルネットワークのロバスト性を改善するために,ランダム層サンプリングを用いたアンサンブルモデルトレーニングフレームワークを提案する。
提案するトレーニングフレームワークでは,ランダム層サンプリングにより種々のサンプルモデルを生成し,サンプルモデルの重みを更新する。
アンサンブルモデルが訓練された後、効率よく勾配を隠蔽し、勾配に基づく攻撃を避けることができる。
論文 参考訳(メタデータ) (2020-05-21T16:14:18Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z) - A Zero-Shot based Fingerprint Presentation Attack Detection System [8.676298469169174]
PADモデルの一般化を保証するため,新しいゼロショット提示検出モデルを提案する。
生成モデルに基づくZSPADモデルでは, 確立過程において負のサンプルを一切利用しない。
本論文では,提案モデルの性能向上のために,9つの信頼性スコアについて論じる。
論文 参考訳(メタデータ) (2020-02-12T10:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。