論文の概要: Few-Shot Domain Expansion for Face Anti-Spoofing
- arxiv url: http://arxiv.org/abs/2106.14162v1
- Date: Sun, 27 Jun 2021 07:38:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 05:20:07.586311
- Title: Few-Shot Domain Expansion for Face Anti-Spoofing
- Title(参考訳): Few-Shot Domain Expansion for Face Anti-Spoofing
- Authors: Bowen Yang, Jing Zhang, Zhenfei Yin, Jing Shao
- Abstract要約: Face Anti-Spoofing (FAS) は顔認識システムにおいて必須かつ広く使われているモジュールである。
Few-Shot Domain Expansion for Face Anti-Spoofing (FSDE-FAS)
- 参考スコア(独自算出の注目度): 28.622220790439055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Face anti-spoofing (FAS) is an indispensable and widely used module in face
recognition systems. Although high accuracy has been achieved, a FAS system
will never be perfect due to the non-stationary applied environments and the
potential emergence of new types of presentation attacks in real-world
applications. In practice, given a handful of labeled samples from a new
deployment scenario (target domain) and abundant labeled face images in the
existing source domain, the FAS system is expected to perform well in the new
scenario without sacrificing the performance on the original domain. To this
end, we identify and address a more practical problem: Few-Shot Domain
Expansion for Face Anti-Spoofing (FSDE-FAS). This problem is challenging since
with insufficient target domain training samples, the model may suffer from
both overfitting to the target domain and catastrophic forgetting of the source
domain. To address the problem, this paper proposes a Style transfer-based
Augmentation for Semantic Alignment (SASA) framework. We propose to augment the
target data by generating auxiliary samples based on photorealistic style
transfer. With the assistant of the augmented data, we further propose a
carefully designed mechanism to align different domains from both
instance-level and distribution-level, and then stabilize the performance on
the source domain with a less-forgetting constraint. Two benchmarks are
proposed to simulate the FSDE-FAS scenarios, and the experimental results show
that the proposed SASA method outperforms state-of-the-art methods.
- Abstract(参考訳): face anti-spoofing (fas) は顔認識システムにおいて必須かつ広く使用されるモジュールである。
精度は高いが、非定常な適用環境と、現実世界のアプリケーションにおける新しいタイプのプレゼンテーション攻撃が出現する可能性があるため、fasシステムは決して完璧ではない。
実際には、新しいデプロイシナリオ(ターゲットドメイン)からのラベル付きサンプルと既存のソースドメイン内の豊富なラベル付き顔画像が与えられた場合、fasシステムは、元のドメインのパフォーマンスを犠牲にすることなく、新しいシナリオでうまく機能することが期待される。
この目的のために我々は,FSDE-FAS (Few-Shot Domain Expansion for Face Anti-Spoofing) という,より実用的な問題を特定し,対処する。
この問題は、ターゲットドメインのトレーニングサンプルが不十分な場合には、ターゲットドメインへの過度な適合と、ソースドメインの破滅的な忘れに悩まされる可能性があるため、難しい。
そこで本研究では,SASA(Site Transfer-based Augmentation for Semantic Alignment)フレームワークを提案する。
本稿では,フォトリアリスティックなスタイル転送に基づく補助サンプルを生成することにより,対象データを増やすことを提案する。
拡張データのアシスタントにより、さらに、インスタンスレベルと分散レベルの両方から異なるドメインを調整し、よりフォーゲッティングの少ない制約でソースドメインのパフォーマンスを安定化する、注意深く設計されたメカニズムを提案します。
FSDE-FASのシナリオをシミュレートするために2つのベンチマークが提案され,実験結果から,提案手法が最先端手法より優れていることが示された。
関連論文リスト
- StyDeSty: Min-Max Stylization and Destylization for Single Domain Generalization [85.18995948334592]
単一のドメインの一般化(単一DG)は、単一のトレーニングドメインからのみ見えないドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
最先端のアプローチは、主に新しいデータを合成するために、敵対的な摂動やスタイルの強化といったデータ拡張に頼っている。
データ拡張の過程で、ソースと擬似ドメインのアライメントを明示的に考慮したemphStyDeStyを提案する。
論文 参考訳(メタデータ) (2024-06-01T02:41:34Z) - Overcoming Negative Transfer by Online Selection: Distant Domain Adaptation for Fault Diagnosis [42.85741244467877]
遠距離領域適応問題」という用語は、ラベル付きソースドメインからラベル付き未ラベルのターゲットドメインへの適応の難しさを記述している。
この問題は、ソースドメインからの外部知識がターゲットドメインのパフォーマンスに悪影響を及ぼす、負の転送のリスクを示す。
この課題に対応するために、我々は、新しいオンライン選択適応(OSAA)アプローチを提案する。
論文 参考訳(メタデータ) (2024-05-25T07:17:47Z) - Test-Time Domain Generalization for Face Anti-Spoofing [60.94384914275116]
Face Anti-Spoofing (FAS) は、顔認識システムをプレゼンテーション攻撃から保護するために重要である。
本稿では,テストデータを活用してモデルの一般化性を高める新しいテスト時間領域一般化フレームワークについて紹介する。
テスト時間スタイル投影 (TTSP) とディバーススタイルシフトシミュレーション (DSSS) によって構成された本手法は, 目に見えないデータを領域空間に効果的に投影する。
論文 参考訳(メタデータ) (2024-03-28T11:50:23Z) - Adaptive Semantic Consistency for Cross-domain Few-shot Classification [27.176106714652327]
クロスドメイン・ショット分類(CD-FSC)は、いくつかのサンプルを用いて新規なターゲットクラスを特定することを目的としている。
本稿では,ドメイン間の堅牢性を向上する,シンプルなプラグアンドプレイ適応セマンティック一貫性フレームワークを提案する。
提案したASCは、ソースドメインの知識を明示的に伝達することで、モデルがターゲットドメインに過度に適合しないようにする。
論文 参考訳(メタデータ) (2023-08-01T15:37:19Z) - Enhancing Visual Domain Adaptation with Source Preparation [5.287588907230967]
ドメイン適応技術は、ソースドメイン自体の特性を考慮できません。
本稿では,ソース領域バイアスを軽減する手法であるソース準備(SP)を提案する。
また,ベースライン上のmIoUでは最大40.64%の改善が見られた。
論文 参考訳(メタデータ) (2023-06-16T18:56:44Z) - Cyclically Disentangled Feature Translation for Face Anti-spoofing [61.70377630461084]
循環不整合特徴変換ネットワーク(CDFTN)と呼ばれる新しい領域適応手法を提案する。
CDFTNは、(1)ソースドメイン不変の生長特徴と2)ドメイン固有のコンテンツ特徴とを持つ擬似ラベル付きサンプルを生成する。
ソースドメインラベルの監督の下で、合成擬似ラベル付き画像に基づいてロバスト分類器を訓練する。
論文 参考訳(メタデータ) (2022-12-07T14:12:34Z) - Generative Domain Adaptation for Face Anti-Spoofing [38.12738183385737]
教師なしドメイン適応(UDA)に基づくアンチスプーフィングアプローチは、ターゲットシナリオに対する有望なパフォーマンスのために注目を集めている。
既存のUDA FASメソッドは、通常、セマンティックな高レベルの機能の分布を整列することで、トレーニングされたモデルをターゲットドメインに適合させる。
対象データをモデルに直接適合させ、画像翻訳により対象データをソースドメインスタイルにスタイリングし、さらに、訓練済みのソースモデルにスタイリングされたデータを入力して分類する、UDA FASの新しい視点を提案する。
論文 参考訳(メタデータ) (2022-07-20T16:24:57Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - Generalizable Representation Learning for Mixture Domain Face
Anti-Spoofing [53.82826073959756]
ドメイン一般化(DG)に基づく対スプーフィングアプローチは、予期せぬシナリオの堅牢性のために注目を集めています。
ドメインダイナミック調整メタラーニング(D2AM)についてドメインラベルを使わずに提案する。
この制限を克服するため,ドメインダイナミック調整メタラーニング(D2AM)を提案する。
論文 参考訳(メタデータ) (2021-05-06T06:04:59Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。