論文の概要: Rehearsal-Free Domain Continual Face Anti-Spoofing: Generalize More and
Forget Less
- arxiv url: http://arxiv.org/abs/2303.09914v1
- Date: Thu, 16 Mar 2023 12:22:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 14:54:27.346107
- Title: Rehearsal-Free Domain Continual Face Anti-Spoofing: Generalize More and
Forget Less
- Title(参考訳): リハーサルフリードメインのアンチスプーフィング:より一般化し、少なくする
- Authors: Rizhao Cai, Yawen Cui, Zhi Li, Zitong Yu, Haoliang Li, Yongjian Hu,
Alex Kot
- Abstract要約: Face Anti-Spoofing (FAS) は、最近、継続的な学習環境下で研究されている。
既存のメソッドでは、リハーサルのために前のデータを格納するために余分なリプレイバッファが必要です。
ドメイン継続学習のための最初のリハーサルのない手法を提案する。
- 参考スコア(独自算出の注目度): 30.737133780202985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face Anti-Spoofing (FAS) is recently studied under the continual learning
setting, where the FAS models are expected to evolve after encountering the
data from new domains. However, existing methods need extra replay buffers to
store previous data for rehearsal, which becomes infeasible when previous data
is unavailable because of privacy issues. In this paper, we propose the first
rehearsal-free method for Domain Continual Learning (DCL) of FAS, which deals
with catastrophic forgetting and unseen domain generalization problems
simultaneously. For better generalization to unseen domains, we design the
Dynamic Central Difference Convolutional Adapter (DCDCA) to adapt Vision
Transformer (ViT) models during the continual learning sessions. To alleviate
the forgetting of previous domains without using previous data, we propose the
Proxy Prototype Contrastive Regularization (PPCR) to constrain the continual
learning with previous domain knowledge from the proxy prototypes. Simulate
practical DCL scenarios, we devise two new protocols which evaluate both
generalization and anti-forgetting performance. Extensive experimental results
show that our proposed method can improve the generalization performance in
unseen domains and alleviate the catastrophic forgetting of the previous
knowledge. The codes and protocols will be released soon.
- Abstract(参考訳): face anti-spoofing(fas)は最近、新しいドメインのデータに遭遇した後にfasモデルが進化することが期待される連続学習環境下で研究されている。
しかし、既存のメソッドでは、リハーサルのために以前のデータを格納するために余分なリプレイバッファが必要である。
本稿では,FASのドメイン継続学習(Domain Continual Learning, DCL)に対する最初のリハーサルのない手法を提案する。
未確認領域へのより良い一般化のために、連続学習セッション中にビジョントランスフォーマー(ViT)モデルを適用するために動的中央差分畳み込み適応器(DCDCA)を設計する。
従来のデータを用いることなく,従来のドメインの忘れを緩和するため,プロキシのプロトタイプから,従来のドメイン知識による継続的な学習を抑えるために,PPCR(Proxy Prototype Contrastive Regularization)を提案する。
実用的なdclシナリオをシミュレートし、一般化と反フォーゲティング性能の両方を評価する2つの新しいプロトコルを考案する。
広範な実験結果から,提案手法は未発見領域の一般化性能を向上し,過去の知識の破滅的な忘れることを軽減できることがわかった。
コードとプロトコルは間もなくリリースされる。
関連論文リスト
- Towards Data-Centric Face Anti-Spoofing: Improving Cross-domain Generalization via Physics-based Data Synthesis [64.46312434121455]
Face Anti-Spoofing (FAS) 研究は、トレーニングデータとテストデータの間にドメインギャップがあるクロスドメイン問題によって難題となっている。
本研究では,タスク固有のFASデータ拡張(FAS-Aug)を提案する。
また,特定の種類のアーティファクトをモデルが依存しないようにし,一般化性能を向上させるために,SARE(Spowing Attack Risk Equalization)を提案する。
論文 参考訳(メタデータ) (2024-09-04T01:45:18Z) - Test-Time Domain Generalization for Face Anti-Spoofing [60.94384914275116]
Face Anti-Spoofing (FAS) は、顔認識システムをプレゼンテーション攻撃から保護するために重要である。
本稿では,テストデータを活用してモデルの一般化性を高める新しいテスト時間領域一般化フレームワークについて紹介する。
テスト時間スタイル投影 (TTSP) とディバーススタイルシフトシミュレーション (DSSS) によって構成された本手法は, 目に見えないデータを領域空間に効果的に投影する。
論文 参考訳(メタデータ) (2024-03-28T11:50:23Z) - Progressive Conservative Adaptation for Evolving Target Domains [76.9274842289221]
従来のドメイン適応は、典型的には、ソースドメインから定常ターゲットドメインに知識を転送する。
このような対象データに対する復元と適応は、時間とともに計算とリソース消費をエスカレートする。
我々は、進歩的保守的適応(PCAda)と呼ばれる、単純で効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-07T04:11:25Z) - S-Adapter: Generalizing Vision Transformer for Face Anti-Spoofing with Statistical Tokens [45.06704981913823]
Face Anti-Spoofing (FAS) は、スプーフされた顔を表示することによって、顔認識システムに侵入しようとする悪意のある試みを検出することを目的としている。
本稿では,局所的なトークンヒストグラムから局所的な識別や統計情報を収集する新しい統計適応器(S-Adapter)を提案する。
統計的トークンの一般化をさらに改善するために,新しいトークンスタイル正規化(TSR)を提案する。
提案したS-AdapterとTSRは、ゼロショットと少数ショットのクロスドメインテストの両方において、いくつかのベンチマークテストにおいて、最先端の手法よりも優れた、大きなメリットをもたらすことを示した。
論文 参考訳(メタデータ) (2023-09-07T22:36:22Z) - Continual Domain Adaptation through Pruning-aided Domain-specific Weight
Modulation [37.3981662593942]
継続学習(CL)の実践的設定において、教師なしドメイン適応(UDA)に対処する手法を開発する。
目標は、ドメイン固有の知識を保持しながら、ドメインを継続的に変更するモデルを更新して、過去のドメインの破滅的な忘れを防止することです。
論文 参考訳(メタデータ) (2023-04-15T13:44:58Z) - Confidence Attention and Generalization Enhanced Distillation for
Continuous Video Domain Adaptation [62.458968086881555]
連続ビデオドメイン適応(CVDA、Continuous Video Domain Adaptation)は、ソースモデルが個々の変更対象ドメインに適応する必要があるシナリオである。
CVDAの課題に対処するため,遺伝子組み換え型自己知識解離(CART)を用いた信頼性保証ネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-18T16:40:10Z) - CONDA: Continual Unsupervised Domain Adaptation Learning in Visual Perception for Self-Driving Cars [11.479857808195774]
本稿では,モデルが新しいデータの存在に関して継続的に学習し,適応することを可能にする,連続的教師なしドメイン適応(CONDA)アプローチを提案する。
破滅的な忘れの問題を避け, セグメンテーションモデルの性能を維持するために, 新規な主観的最大損失を提示する。
論文 参考訳(メタデータ) (2022-12-01T16:15:54Z) - Domain-incremental Cardiac Image Segmentation with Style-oriented Replay
and Domain-sensitive Feature Whitening [67.6394526631557]
M&Mは、各受信データセットから漸進的に学習し、時間が経つにつれて改善された機能で漸進的に更新する必要がある。
医学的シナリオでは、データのプライバシのため、過去のデータへのアクセスや保存が一般的に許可されないため、これは特に困難である。
本稿では,まず過去のドメイン入力を復元し,モデル最適化中に定期的に再生する新しいドメイン増分学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-09T13:07:36Z) - Multi-domain Learning for Updating Face Anti-spoofing Models [17.506385040102213]
本稿では,MD-FASの新しいモデルを提案する。
まず,スプーフ領域推定器(SRE)と呼ばれるシンプルだが効果的なモジュールを考案し,スプーフ画像中のスプーフトレースを同定する。
複数の出力や低解像度のバイナリマスクを生成するスプーフトレースを推定する以前の研究とは異なり、SREは教師なしの方法で1つの詳細なピクセルワイド推定を生成する。
論文 参考訳(メタデータ) (2022-08-23T18:28:34Z) - Towards Online Domain Adaptive Object Detection [79.89082006155135]
既存のオブジェクト検出モデルは、トレーニングデータとテストデータの両方が同じソースドメインからサンプリングされていると仮定します。
オンライン設定における対象領域の一般化を適応・改善する新しい統合適応フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-11T17:47:22Z) - Self-Domain Adaptation for Face Anti-Spoofing [31.441928816043536]
推論時にラベルのないテストドメインデータを利用するための自己ドメイン適応フレームワークを提案する。
トレーニングステップで複数のソースドメインのデータを用いて,メタラーニングに基づく適応学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-24T08:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。