論文の概要: Cross-domain Face Presentation Attack Detection via Multi-domain
Disentangled Representation Learning
- arxiv url: http://arxiv.org/abs/2004.01959v1
- Date: Sat, 4 Apr 2020 15:45:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 23:19:42.392722
- Title: Cross-domain Face Presentation Attack Detection via Multi-domain
Disentangled Representation Learning
- Title(参考訳): multi-domain disentangled representation learning によるクロスドメイン顔提示攻撃検出
- Authors: Guoqing Wang, Hu Han, Shiguang Shan and Xilin Chen
- Abstract要約: 顔提示攻撃検出(PAD)は,顔認識システムにおいて緊急に解決すべき課題である。
クロスドメイン顔PADのための効率的な非交叉表現学習を提案する。
我々のアプローチは、不整合表現学習(DR-Net)とマルチドメイン学習(MD-Net)からなる。
- 参考スコア(独自算出の注目度): 109.42987031347582
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face presentation attack detection (PAD) has been an urgent problem to be
solved in the face recognition systems. Conventional approaches usually assume
the testing and training are within the same domain; as a result, they may not
generalize well into unseen scenarios because the representations learned for
PAD may overfit to the subjects in the training set. In light of this, we
propose an efficient disentangled representation learning for cross-domain face
PAD. Our approach consists of disentangled representation learning (DR-Net) and
multi-domain learning (MD-Net). DR-Net learns a pair of encoders via generative
models that can disentangle PAD informative features from subject
discriminative features. The disentangled features from different domains are
fed to MD-Net which learns domain-independent features for the final
cross-domain face PAD task. Extensive experiments on several public datasets
validate the effectiveness of the proposed approach for cross-domain PAD.
- Abstract(参考訳): 顔提示攻撃検出(PAD)は,顔認識システムにおいて緊急に解決すべき課題である。
従来のアプローチでは、テストとトレーニングは同じドメイン内にあると仮定するが、結果として、PADで学んだ表現はトレーニングセットの被験者に過度に適合するため、見知らぬシナリオにうまく一般化できない。
そこで本研究では,クロスドメイン顔PADのための効率的な非交叉表現学習を提案する。
提案手法は,不整合表現学習(DR-Net)とマルチドメイン学習(MD-Net)からなる。
DR-Netは1組のエンコーダを生成モデルで学習し、PAD情報特徴を主観的識別特徴から切り離すことができる。
異なるドメインから分離した機能はmd-netに供給され、最終的なクロスドメインフェイスパッドタスクでドメインに依存しない機能を学ぶ。
複数のパブリックデータセットに対する大規模な実験により、クロスドメインPADに対する提案手法の有効性が検証された。
関連論文リスト
- DIGIC: Domain Generalizable Imitation Learning by Causal Discovery [69.13526582209165]
因果性は機械学習と組み合わせて、ドメインの一般化のための堅牢な表現を生成する。
我々は、実証データ分布を活用して、ドメインの一般化可能なポリシーの因果的特徴を発見するために、異なる試みを行っている。
DIGICと呼ばれる新しいフレームワークを設計し、実演データ分布から専門家行動の直接的な原因を見出すことにより因果的特徴を識別する。
論文 参考訳(メタデータ) (2024-02-29T07:09:01Z) - One-Class Knowledge Distillation for Face Presentation Attack Detection [53.30584138746973]
本稿では,一級ドメイン適応による対面PADのクロスドメイン性能向上のための教師学生フレームワークを提案する。
学生ネットワークは、教師ネットワークを模倣し、ターゲットドメインの真の顔サンプルの類似した表現を学ぶために訓練される。
テストフェーズでは、教師と学生ネットワークの表現の類似度スコアを用いて、真の攻撃と区別する。
論文 参考訳(メタデータ) (2022-05-08T06:20:59Z) - Decompose to Adapt: Cross-domain Object Detection via Feature
Disentanglement [79.2994130944482]
本研究では,DDF(Domain Disentanglement Faster-RCNN)を設計し,タスク学習のための特徴のソース固有情報を排除した。
DDF法は,グローバルトリプルト・ディアンタングルメント(GTD)モジュールとインスタンス類似性・ディアンタングルメント(ISD)モジュールを用いて,グローバルおよびローカルステージでの機能ディアンタングルを容易にする。
提案手法は,4つのUDAオブジェクト検出タスクにおいて最先端の手法より優れており,広い適用性で有効であることが実証された。
論文 参考訳(メタデータ) (2022-01-06T05:43:01Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Cross-Domain Similarity Learning for Face Recognition in Unseen Domains [90.35908506994365]
本研究では,cdt(cross-domain triplet, クロスドメイントリプレット)の損失を推測する新しいクロスドメインメトリック学習損失法を提案する。
CDT損失は、一つのドメインからコンパクトな特徴クラスタを強制することによって意味論的に意味のある特徴の学習を促進する。
本手法では,トレーニング中,注意深いハードペアサンプルマイニングおよびフィルタリング戦略は必要としない。
論文 参考訳(メタデータ) (2021-03-12T19:48:01Z) - Adversarial Unsupervised Domain Adaptation Guided with Deep Clustering
for Face Presentation Attack Detection [0.8701566919381223]
顔提示攻撃検知(PAD)は顔認識システムを確保するために注目されている。
PAD一般化能力を改善するために,ドメイン適応(DA)に基づくエンドツーエンド学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-13T05:34:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。