論文の概要: Learning One Class Representations for Face Presentation Attack
Detection using Multi-channel Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2007.11457v1
- Date: Wed, 22 Jul 2020 14:19:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 22:55:49.173682
- Title: Learning One Class Representations for Face Presentation Attack
Detection using Multi-channel Convolutional Neural Networks
- Title(参考訳): マルチチャネル畳み込みニューラルネットワークを用いた顔提示攻撃検出のための一クラス表現の学習
- Authors: Anjith George and Sebastien Marcel
- Abstract要約: プレゼンテーションアタック検出(PAD)メソッドは、目に見えないアタックを一般化するのに失敗することが多い。
マルチチャネル畳み込みニューラルネットワーク(MCCNN)で学習する一クラス分類器を用いたPADのための新しいフレームワークを提案する。
新たな損失関数が導入されたため、ネットワークは攻撃の表現から遠ざかって、ボナフィドクラスのコンパクトな埋め込みを学習せざるを得なくなった。
提案フレームワークは,ボナフィドおよび(既知の)攻撃クラスから堅牢なPADシステムを学習するための新しいアプローチを導入する。
- 参考スコア(独自算出の注目度): 7.665392786787577
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face recognition has evolved as a widely used biometric modality. However,
its vulnerability against presentation attacks poses a significant security
threat. Though presentation attack detection (PAD) methods try to address this
issue, they often fail in generalizing to unseen attacks. In this work, we
propose a new framework for PAD using a one-class classifier, where the
representation used is learned with a Multi-Channel Convolutional Neural
Network (MCCNN). A novel loss function is introduced, which forces the network
to learn a compact embedding for bonafide class while being far from the
representation of attacks. A one-class Gaussian Mixture Model is used on top of
these embeddings for the PAD task. The proposed framework introduces a novel
approach to learn a robust PAD system from bonafide and available (known)
attack classes. This is particularly important as collecting bonafide data and
simpler attacks are much easier than collecting a wide variety of expensive
attacks. The proposed system is evaluated on the publicly available WMCA
multi-channel face PAD database, which contains a wide variety of 2D and 3D
attacks. Further, we have performed experiments with MLFP and SiW-M datasets
using RGB channels only. Superior performance in unseen attack protocols shows
the effectiveness of the proposed approach. Software, data, and protocols to
reproduce the results are made available publicly.
- Abstract(参考訳): 顔認識は、広く使われているバイオメトリックモダリティとして進化してきた。
しかし、プレゼンテーション攻撃に対する脆弱性は、重大なセキュリティ上の脅威をもたらす。
プレゼンテーションアタック検出(pad)メソッドはこの問題に対処しようとするが、しばしば認識されないアタックの一般化に失敗する。
本研究では,その表現をMCCNN(Multi-Channel Convolutional Neural Network)を用いて学習する一クラス分類器を用いたPADの新しいフレームワークを提案する。
新たな損失関数が導入されたため、ネットワークは攻撃の表現から遠ざかって、ボナフィドクラスのコンパクトな埋め込みを学習せざるを得なくなった。
PADタスクのこれらの埋め込みの上に、一級ガウス混合モデルが使用されます。
提案フレームワークは,ボナフィドおよび(既知の)攻撃クラスから堅牢なPADシステムを学習するための新しいアプローチを導入する。
特に重要なのは、ボナフィドのデータ収集と単純な攻撃は、様々な高価な攻撃を集めるよりもはるかに容易である。
提案システムは,多種多様な2Dおよび3D攻撃を含むWMCA多チャンネル顔PADデータベース上で評価を行う。
さらに、RGBチャネルのみを用いて、MLFPおよびSiW-Mデータセットを用いて実験を行った。
未知の攻撃プロトコルにおける上位性能は,提案手法の有効性を示す。
結果を再現するためのソフトウェア、データ、プロトコルが公開されている。
関連論文リスト
- Hyperbolic Face Anti-Spoofing [21.981129022417306]
双曲空間におけるよりリッチな階層的および差別的なスプーフィングキューを学習することを提案する。
単調なFAS学習では、特徴埋め込みはポアンカーボールに投影され、双対対対数回帰層は分類のためにカスケードされる。
双曲空間における消失勾配問題を緩和するために,双曲モデルのトレーニング安定性を高めるために,新しい特徴クリッピング法を提案する。
論文 参考訳(メタデータ) (2023-08-17T17:18:21Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Generalized Insider Attack Detection Implementation using NetFlow Data [0.6236743421605786]
ネットワークデータを用いて攻撃を識別する手法について検討する。
我々の研究は、One-Class SVMやbi-clusteringのような教師なしの機械学習技術に基づいています。
われわれのアプローチは、現実的な環境でインサイダー攻撃検出のための有望なツールであることを示す。
論文 参考訳(メタデータ) (2020-10-27T14:00:31Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - Leveraging Siamese Networks for One-Shot Intrusion Detection Model [0.0]
侵入検知システムを強化するための機械学習(ML)が重要な研究対象となっている。
モデルの再トレーニングは、十分な量のデータを取得するのに必要なタイムウインドウのために、ネットワークが攻撃を受けやすいようにする。
ここでは、「ワンショットラーニング」と呼ばれる補完的なアプローチで、新しい攻撃クラスを識別するために、新しい攻撃クラスの限られた例を用いる。
Siamese Networkは、機能ではなく、ペアの類似性に基づいてクラスを区別するように訓練されており、新しい、以前は目に見えない攻撃を識別することができる。
論文 参考訳(メタデータ) (2020-06-27T11:40:01Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。