論文の概要: Style-Guided Domain Adaptation for Face Presentation Attack Detection
- arxiv url: http://arxiv.org/abs/2203.14565v1
- Date: Mon, 28 Mar 2022 08:14:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 15:30:32.366269
- Title: Style-Guided Domain Adaptation for Face Presentation Attack Detection
- Title(参考訳): 顔提示攻撃検出のためのスタイル誘導ドメイン適応
- Authors: Young-Eun Kim, Woo-Jeoung Nam, Kyungseo Min and Seong-Whan Lee
- Abstract要約: 推論時適応型PADのための新しいスタイルガイド型ドメイン適応フレームワークを提案する。
スタイル選択正規化(SSN)は、高次特徴統計量内でのドメイン固有のスタイル情報を調べるために提案される。
提案したSSNは,ターゲットドメインとソースドメインのスタイル差を小さくすることで,ターゲットドメインへのモデルの適応を可能にする。
- 参考スコア(独自算出の注目度): 21.959450790863432
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain adaptation (DA) or domain generalization (DG) for face presentation
attack detection (PAD) has attracted attention recently with its robustness
against unseen attack scenarios. Existing DA/DG-based PAD methods, however,
have not yet fully explored the domain-specific style information that can
provide knowledge regarding attack styles (e.g., materials, background,
illumination and resolution). In this paper, we introduce a novel Style-Guided
Domain Adaptation (SGDA) framework for inference-time adaptive PAD.
Specifically, Style-Selective Normalization (SSN) is proposed to explore the
domain-specific style information within the high-order feature statistics. The
proposed SSN enables the adaptation of the model to the target domain by
reducing the style difference between the target and the source domains.
Moreover, we carefully design Style-Aware Meta-Learning (SAML) to boost the
adaptation ability, which simulates the inference-time adaptation with style
selection process on virtual test domain. In contrast to previous domain
adaptation approaches, our method does not require either additional auxiliary
models (e.g., domain adaptors) or the unlabeled target domain during training,
which makes our method more practical to PAD task. To verify our experiments,
we utilize the public datasets: MSU-MFSD, CASIA-FASD, OULU-NPU and Idiap
REPLAYATTACK. In most assessments, the result demonstrates a notable gap of
performance compared to the conventional DA/DG-based PAD methods.
- Abstract(参考訳): 近年,顔提示攻撃検出(PAD)のためのドメイン適応(DA)やドメイン一般化(DG)が注目されている。
しかし、既存のDA/DGベースのPAD手法は、攻撃スタイル(材料、背景、照明、解像度など)に関する知識を提供するドメイン固有のスタイル情報を十分に研究していない。
本稿では、推論時適応PADのための新しいスタイルガイドドメイン適応(SGDA)フレームワークを提案する。
具体的には,高次特徴量統計におけるドメイン固有のスタイル情報を調べるために,SSN(Style-Selective Normalization)を提案する。
提案したSSNは,ターゲットドメインとソースドメインのスタイル差を小さくすることで,ターゲットドメインへのモデルの適応を可能にする。
さらに,スタイル認識型メタラーニング(saml)を慎重に設計し,仮想テスト領域におけるスタイル選択プロセスによる推論時間適応をシミュレートする適応能力を高める。
従来のドメイン適応手法とは対照的に,本手法ではトレーニング中に追加の補助モデル(ドメイン適応器など)や未ラベルのターゲットドメインを必要とせず,PADタスクよりも実用的である。
MSU-MFSD, CASIA-FASD, OULU-NPU, Idiap REPLAYATTACK という公開データセットを利用する。
その結果,従来のDA/DG法と比較すると,性能差が顕著であった。
関連論文リスト
- Style Adaptation for Domain-adaptive Semantic Segmentation [2.1365683052370046]
ドメインの不一致は、ターゲットドメインに適用した場合、ソースドメインデータに基づいてトレーニングされた一般的なネットワークモデルの性能を著しく低下させる。
パラメータ計算を必要とせず、自己学習に基づくUDA手法とシームレスに統合する。
提案手法は,GTA->Cityscapesデータセット上で76.93 mIoUの有意なUDA性能を達成し,過去の成果に比べて+1.03ポイント向上したことを示す。
論文 参考訳(メタデータ) (2024-04-25T02:51:55Z) - Progressive Conservative Adaptation for Evolving Target Domains [76.9274842289221]
従来のドメイン適応は、典型的には、ソースドメインから定常ターゲットドメインに知識を転送する。
このような対象データに対する復元と適応は、時間とともに計算とリソース消費をエスカレートする。
我々は、進歩的保守的適応(PCAda)と呼ばれる、単純で効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-07T04:11:25Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - Divide and Adapt: Active Domain Adaptation via Customized Learning [56.79144758380419]
対象インスタンスを成層化可能な4つのカテゴリに分割する新しいADAフレームワークであるDiaNA(Divide-and-Adapt)を提案する。
不確実性とドメイン性に基づく新しいデータ分割プロトコルにより、DiaNAは最も有利なサンプルを正確に認識することができる。
の精神のおかげで、DiaNAはドメインギャップの大きなバリエーションでデータを処理できる。
論文 参考訳(メタデータ) (2023-07-21T14:37:17Z) - IDA: Informed Domain Adaptive Semantic Segmentation [51.12107564372869]
クラスレベルのセグメンテーション性能に基づいてデータを混合する自己学習フレームワークであるDomain Informed Adaptation (IDA) モデルを提案する。
IDAモデルでは、クラスレベルの性能を期待信頼スコア(ECS)によって追跡し、動的スケジュールを用いて異なる領域のデータに対する混合比を決定する。
提案手法は,GTA-Vの都市景観への適応において1.1 mIoU,SynTHIAの都市への適応において0.9 mIoUのマージンで,最先端のUDA-SS法よりも優れる。
論文 参考訳(メタデータ) (2023-03-05T18:16:34Z) - Key Design Choices for Double-Transfer in Source-Free Unsupervised
Domain Adaptation [18.21955526087808]
本稿では、SF-UDA(Source-Free Unsupervised Domain Adaptation)における主要な設計選択の詳細な分析を行う。
正規化アプローチ、事前学習戦略、バックボーンアーキテクチャを最も重要な要素として挙げる。
SF-UDAは、標準ベンチマークやバックボーンアーキテクチャよりも競争力があり、データと計算コストのごく一部でUDAと同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-02-10T17:00:37Z) - Towards Online Domain Adaptive Object Detection [79.89082006155135]
既存のオブジェクト検出モデルは、トレーニングデータとテストデータの両方が同じソースドメインからサンプリングされていると仮定します。
オンライン設定における対象領域の一般化を適応・改善する新しい統合適応フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-11T17:47:22Z) - Instance Relation Graph Guided Source-Free Domain Adaptive Object
Detection [79.89082006155135]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、ドメインシフトの問題に取り組むための効果的なアプローチである。
UDAメソッドは、ターゲットドメインの一般化を改善するために、ソースとターゲット表現を整列させようとする。
Source-Free Adaptation Domain (SFDA)設定は、ソースデータへのアクセスを必要とせずに、ターゲットドメインに対してソーストレーニングされたモデルを適用することで、これらの懸念を軽減することを目的としている。
論文 参考訳(メタデータ) (2022-03-29T17:50:43Z) - Revisiting Deep Subspace Alignment for Unsupervised Domain Adaptation [42.16718847243166]
Unsupervised domain adapt (UDA) は、ラベル付きソースドメインからラベル付きターゲットドメインへの知識の転送と適応を目的としている。
伝統的に、部分空間に基づく手法はこの問題に対する重要な解のクラスを形成する。
本稿では,UDAにおける部分空間アライメントの利用を再検討し,一貫した一般化をもたらす新しい適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-01-05T20:16:38Z) - Self-Domain Adaptation for Face Anti-Spoofing [31.441928816043536]
推論時にラベルのないテストドメインデータを利用するための自己ドメイン適応フレームワークを提案する。
トレーニングステップで複数のソースドメインのデータを用いて,メタラーニングに基づく適応学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-24T08:46:39Z) - Adversarial Unsupervised Domain Adaptation Guided with Deep Clustering
for Face Presentation Attack Detection [0.8701566919381223]
顔提示攻撃検知(PAD)は顔認識システムを確保するために注目されている。
PAD一般化能力を改善するために,ドメイン適応(DA)に基づくエンドツーエンド学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-13T05:34:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。