論文の概要: Disentangled Representation with Dual-stage Feature Learning for Face
Anti-spoofing
- arxiv url: http://arxiv.org/abs/2110.09157v1
- Date: Mon, 18 Oct 2021 10:22:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 17:19:28.877592
- Title: Disentangled Representation with Dual-stage Feature Learning for Face
Anti-spoofing
- Title(参考訳): 対面アンチ・スプーフィングのための二段階特徴学習による遠方表現
- Authors: Yu-Chun Wang, Chien-Yi Wang, Shang-Hong Lai
- Abstract要約: 事前に定義されたスプーフ攻撃タイプに過度に適合しないように、より一般化され差別的な特徴を学ぶことが不可欠である。
本稿では,無関係な特徴からスプーフ関連特徴を効果的に解き放つことができる,新しい二段階不整形表現学習法を提案する。
- 参考スコア(独自算出の注目度): 18.545438302664756
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As face recognition is widely used in diverse security-critical applications,
the study of face anti-spoofing (FAS) has attracted more and more attention.
Several FAS methods have achieved promising performances if the attack types in
the testing data are the same as training data, while the performance
significantly degrades for unseen attack types. It is essential to learn more
generalized and discriminative features to prevent overfitting to pre-defined
spoof attack types. This paper proposes a novel dual-stage disentangled
representation learning method that can efficiently untangle spoof-related
features from irrelevant ones. Unlike previous FAS disentanglement works with
one-stage architecture, we found that the dual-stage training design can
improve the training stability and effectively encode the features to detect
unseen attack types. Our experiments show that the proposed method provides
superior accuracy than the state-of-the-art methods on several cross-type FAS
benchmarks.
- Abstract(参考訳): 顔認識は様々なセキュリティクリティカルなアプリケーションで広く使われているため、フェイスアンチスプーフィング(fas)の研究がますます注目を集めている。
テストデータ中の攻撃タイプがトレーニングデータと同じである場合、いくつかのFASメソッドは有望なパフォーマンスを実現している。
事前に定義されたspoof攻撃タイプへの過剰適合を防ぐために、より汎用的で識別的な特徴を学ぶことが不可欠である。
本稿では,無関係な特徴からspoof関連特徴を効率的に解き放つことができる,新しい二段階不等角表現学習法を提案する。
従来のfasディストレングルメントと一段階のアーキテクチャでは違い,デュアルステージのトレーニング設計ではトレーニングの安定性が向上し,目に見えない攻撃タイプを検出する機能を効果的にエンコードできることが判明した。
提案手法は,複数種類のFASベンチマークにおける最先端手法よりも精度が高いことを示す。
関連論文リスト
- Dual Teacher Knowledge Distillation with Domain Alignment for Face
Anti-spoofing [39.942744529422896]
顔認識システムは、異なるプレゼンテーションアタックに対する脆弱性のために懸念を高めている。
ドメイン逆攻撃 (DAA) は、トレーニング不安定な問題を緩和する手法である。
顔の反偽造のための二重知覚および生成的知識蒸留の枠組み。
論文 参考訳(メタデータ) (2024-01-02T08:45:41Z) - Contactless Fingerprint Biometric Anti-Spoofing: An Unsupervised Deep
Learning Approach [0.0]
本稿では、教師なしオートエンコーダと畳み込みブロックアテンションモジュールを組み合わせた革新的なアンチスプーフィング手法を提案する。
このスキームは平均で0.96%のBPCERを達成し、様々な種類のスプーフサンプルを含むプレゼンテーション攻撃では1.6%のAPCERを達成している。
論文 参考訳(メタデータ) (2023-11-07T17:19:59Z) - Improving Cross-dataset Deepfake Detection with Deep Information
Decomposition [57.284370468207214]
ディープフェイク技術は、セキュリティと社会的信頼に重大な脅威をもたらす。
既存の検出方法は、クロスデータセットのシナリオに直面した場合、パフォーマンスの急激な低下に悩まされる。
本稿では,深層情報分解(DID)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Hyperbolic Face Anti-Spoofing [21.981129022417306]
双曲空間におけるよりリッチな階層的および差別的なスプーフィングキューを学習することを提案する。
単調なFAS学習では、特徴埋め込みはポアンカーボールに投影され、双対対対数回帰層は分類のためにカスケードされる。
双曲空間における消失勾配問題を緩和するために,双曲モデルのトレーニング安定性を高めるために,新しい特徴クリッピング法を提案する。
論文 参考訳(メタデータ) (2023-08-17T17:18:21Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - FADER: Fast Adversarial Example Rejection [19.305796826768425]
近年の防御は, 異なる層表現における正統な訓練試料からの異常な偏差を検出することにより, 対向的堅牢性を向上させることが示されている。
本稿では,検出に基づく手法を高速化する新しい手法であるFADERを紹介する。
実験では,MNISTデータセットの解析値と比較すると,最大73倍の試作機,CIFAR10の最大50倍の試作機について概説した。
論文 参考訳(メタデータ) (2020-10-18T22:00:11Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。