論文の概要: Disentangled Representation with Dual-stage Feature Learning for Face
Anti-spoofing
- arxiv url: http://arxiv.org/abs/2110.09157v1
- Date: Mon, 18 Oct 2021 10:22:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 17:19:28.877592
- Title: Disentangled Representation with Dual-stage Feature Learning for Face
Anti-spoofing
- Title(参考訳): 対面アンチ・スプーフィングのための二段階特徴学習による遠方表現
- Authors: Yu-Chun Wang, Chien-Yi Wang, Shang-Hong Lai
- Abstract要約: 事前に定義されたスプーフ攻撃タイプに過度に適合しないように、より一般化され差別的な特徴を学ぶことが不可欠である。
本稿では,無関係な特徴からスプーフ関連特徴を効果的に解き放つことができる,新しい二段階不整形表現学習法を提案する。
- 参考スコア(独自算出の注目度): 18.545438302664756
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As face recognition is widely used in diverse security-critical applications,
the study of face anti-spoofing (FAS) has attracted more and more attention.
Several FAS methods have achieved promising performances if the attack types in
the testing data are the same as training data, while the performance
significantly degrades for unseen attack types. It is essential to learn more
generalized and discriminative features to prevent overfitting to pre-defined
spoof attack types. This paper proposes a novel dual-stage disentangled
representation learning method that can efficiently untangle spoof-related
features from irrelevant ones. Unlike previous FAS disentanglement works with
one-stage architecture, we found that the dual-stage training design can
improve the training stability and effectively encode the features to detect
unseen attack types. Our experiments show that the proposed method provides
superior accuracy than the state-of-the-art methods on several cross-type FAS
benchmarks.
- Abstract(参考訳): 顔認識は様々なセキュリティクリティカルなアプリケーションで広く使われているため、フェイスアンチスプーフィング(fas)の研究がますます注目を集めている。
テストデータ中の攻撃タイプがトレーニングデータと同じである場合、いくつかのFASメソッドは有望なパフォーマンスを実現している。
事前に定義されたspoof攻撃タイプへの過剰適合を防ぐために、より汎用的で識別的な特徴を学ぶことが不可欠である。
本稿では,無関係な特徴からspoof関連特徴を効率的に解き放つことができる,新しい二段階不等角表現学習法を提案する。
従来のfasディストレングルメントと一段階のアーキテクチャでは違い,デュアルステージのトレーニング設計ではトレーニングの安定性が向上し,目に見えない攻撃タイプを検出する機能を効果的にエンコードできることが判明した。
提案手法は,複数種類のFASベンチマークにおける最先端手法よりも精度が高いことを示す。
関連論文リスト
- UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Hyp-OC: Hyperbolic One Class Classification for Face Anti-Spoofing [30.6907043124415]
顔認識システムは偽造攻撃に対して脆弱であり、容易に回避できる。
フェース・アンチ・スプーフィング (FAS) の最も古い研究は、これを二段階の分類タスクとしてアプローチした。
本研究では,一級視点から顔の偽造防止タスクを再構築し,新しい双曲型一級分類フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-22T17:59:18Z) - Contactless Fingerprint Biometric Anti-Spoofing: An Unsupervised Deep
Learning Approach [0.0]
本稿では、教師なしオートエンコーダと畳み込みブロックアテンションモジュールを組み合わせた革新的なアンチスプーフィング手法を提案する。
このスキームは平均で0.96%のBPCERを達成し、様々な種類のスプーフサンプルを含むプレゼンテーション攻撃では1.6%のAPCERを達成している。
論文 参考訳(メタデータ) (2023-11-07T17:19:59Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Hyperbolic Face Anti-Spoofing [21.981129022417306]
双曲空間におけるよりリッチな階層的および差別的なスプーフィングキューを学習することを提案する。
単調なFAS学習では、特徴埋め込みはポアンカーボールに投影され、双対対対数回帰層は分類のためにカスケードされる。
双曲空間における消失勾配問題を緩和するために,双曲モデルのトレーニング安定性を高めるために,新しい特徴クリッピング法を提案する。
論文 参考訳(メタデータ) (2023-08-17T17:18:21Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - FADER: Fast Adversarial Example Rejection [19.305796826768425]
近年の防御は, 異なる層表現における正統な訓練試料からの異常な偏差を検出することにより, 対向的堅牢性を向上させることが示されている。
本稿では,検出に基づく手法を高速化する新しい手法であるFADERを紹介する。
実験では,MNISTデータセットの解析値と比較すると,最大73倍の試作機,CIFAR10の最大50倍の試作機について概説した。
論文 参考訳(メタデータ) (2020-10-18T22:00:11Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。