論文の概要: Domain Generalization via Ensemble Stacking for Face Presentation Attack
Detection
- arxiv url: http://arxiv.org/abs/2301.02145v2
- Date: Sat, 16 Sep 2023 08:25:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 00:59:36.250486
- Title: Domain Generalization via Ensemble Stacking for Face Presentation Attack
Detection
- Title(参考訳): 顔提示攻撃検出のためのアンサンブルスタックによるドメイン一般化
- Authors: Usman Muhammad, Jorma Laaksonen, Djamila Romaissa Beddiar, and Mourad
Oussalah
- Abstract要約: 顔提示攻撃検出(PAD)は、偽造攻撃に対する顔認識システムを保護する上で重要な役割を担っている。
本研究では,合成データ生成と深層アンサンブル学習を組み合わせた包括的ソリューションを提案する。
4つのデータセットに対する実験結果は、3つのベンチマークデータセット上でのHTER(low half total error rate)を示す。
- 参考スコア(独自算出の注目度): 4.61143637299349
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face Presentation Attack Detection (PAD) plays a pivotal role in securing
face recognition systems against spoofing attacks. Although great progress has
been made in designing face PAD methods, developing a model that can generalize
well to unseen test domains remains a significant challenge. Moreover, due to
different types of spoofing attacks, creating a dataset with a sufficient
number of samples for training deep neural networks is a laborious task. This
work proposes a comprehensive solution that combines synthetic data generation
and deep ensemble learning to enhance the generalization capabilities of face
PAD. Specifically, synthetic data is generated by blending a static image with
spatiotemporal encoded images using alpha composition and video distillation.
This way, we simulate motion blur with varying alpha values, thereby generating
diverse subsets of synthetic data that contribute to a more enriched training
set. Furthermore, multiple base models are trained on each subset of synthetic
data using stacked ensemble learning. This allows the models to learn
complementary features and representations from different synthetic subsets.
The meta-features generated by the base models are used as input to a new model
called the meta-model. The latter combines the predictions from the base
models, leveraging their complementary information to better handle unseen
target domains and enhance the overall performance. Experimental results on
four datasets demonstrate low half total error rates (HTERs) on three benchmark
datasets: CASIA-MFSD (8.92%), MSU-MFSD (4.81%), and OULU-NPU (6.70%). The
approach shows potential for advancing presentation attack detection by
utilizing large-scale synthetic data and the meta-model.
- Abstract(参考訳): 顔提示攻撃検出(PAD)は、偽造攻撃に対する顔認識システムを保護する上で重要な役割を担っている。
フェイスパッド法の設計には大きな進歩があったが、未発見のテスト領域にうまく一般化できるモデルの開発は依然として大きな課題である。
さらに、さまざまな種類のスプーフィング攻撃のために、ディープニューラルネットワークをトレーニングする十分な数のサンプルでデータセットを作成するのは、面倒な作業である。
本研究では,合成データ生成と深層アンサンブル学習を組み合わせることで,顔PADの一般化能力を向上する包括的ソリューションを提案する。
具体的には、アルファ組成とビデオ蒸留を用いて静止画像と時空間符号化画像とを混合して合成データを生成する。
この方法で、様々なアルファ値のモーションボケをシミュレートし、より強化されたトレーニングセットに寄与する合成データの多様なサブセットを生成する。
さらに、積層アンサンブル学習を用いて合成データの各サブセット上で複数のベースモデルを訓練する。
これによりモデルは異なる合成部分集合から相補的な特徴や表現を学ぶことができる。
ベースモデルによって生成されるメタ特徴は、メタモデルと呼ばれる新しいモデルの入力として使用される。
後者はベースモデルからの予測を組み合わせることで、補完的な情報を活用して、目に見えないターゲットドメインをよりよく処理し、全体的なパフォーマンスを向上させる。
4つのデータセットにおける実験結果は、casia-mfsd (8.92%)、msu-mfsd (4.81%)、oulu-npu (6.70%)の3つのベンチマークデータセットで低い半分誤差率 (hter) を示している。
提案手法は,大規模合成データとメタモデルを用いて,提示攻撃検出の進展を示す。
関連論文リスト
- SynthASpoof: Developing Face Presentation Attack Detection Based on
Privacy-friendly Synthetic Data [6.218678900574128]
この研究は、大規模なPAD開発データセットとして、SynthASpoofと名付けられた、最初の合成ベースの顔PADデータセットを提示する。
フェースパドの開発にSynthaspoofを用いることが可能であることを示す実験結果を得た。
本研究は,限られた訓練データの多様性を高めるために,合成データのサプリメントとしての有用性を示す。
論文 参考訳(メタデータ) (2023-03-05T12:35:58Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - One-Class Knowledge Distillation for Face Presentation Attack Detection [53.30584138746973]
本稿では,一級ドメイン適応による対面PADのクロスドメイン性能向上のための教師学生フレームワークを提案する。
学生ネットワークは、教師ネットワークを模倣し、ターゲットドメインの真の顔サンプルの類似した表現を学ぶために訓練される。
テストフェーズでは、教師と学生ネットワークの表現の類似度スコアを用いて、真の攻撃と区別する。
論文 参考訳(メタデータ) (2022-05-08T06:20:59Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - Taming Self-Supervised Learning for Presentation Attack Detection:
De-Folding and De-Mixing [42.733666815035534]
各種提示攻撃装置(PAI)を用いた提示攻撃に対して生体認証システムは脆弱である
DF-DMと呼ばれる自己教師型学習手法を提案する。
DF-DMは、PDDのタスク固有の表現を導出するために、De-FoldingとDe-Mixingと結合したグローバルローカルビューに基づいている。
論文 参考訳(メタデータ) (2021-09-09T08:38:17Z) - A Compact Deep Learning Model for Face Spoofing Detection [4.250231861415827]
プレゼンテーションアタック検出(PAD)は研究コミュニティから大きな注目を集めている。
我々は、統一されたニューラルネットワークアーキテクチャにおいて、幅広い機能と深い機能の両方を融合することで、この問題に対処する。
この手順は、ROSE-Youtu、SiW、NUAA Imposterなどのさまざまなスプーフィングデータセットで行われます。
論文 参考訳(メタデータ) (2021-01-12T21:20:09Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。