論文の概要: Generalized Face Anti-Spoofing via Multi-Task Learning and One-Side Meta
Triplet Loss
- arxiv url: http://arxiv.org/abs/2211.15955v1
- Date: Tue, 29 Nov 2022 06:28:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 16:20:32.877332
- Title: Generalized Face Anti-Spoofing via Multi-Task Learning and One-Side Meta
Triplet Loss
- Title(参考訳): マルチタスク学習と一側メタトリプルトロスによる汎用顔アンチスプーフィング
- Authors: Chu-Chun Chuang, Chien-Yi Wang, Shang-Hong Lai
- Abstract要約: 本稿では, 深度推定, 顔解析, ライブ・スプーフ分類という3つの課題からなる, 汎用的な顔のアンチ・スプーフ・フレームワークを提案する。
4つの公開データセットの実験では、提案されたフレームワークとトレーニング戦略が、未確認領域へのモデル一般化の以前の作業よりも効果的であることが示されている。
- 参考スコア(独自算出の注目度): 12.829618913069567
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the increasing variations of face presentation attacks, model
generalization becomes an essential challenge for a practical face
anti-spoofing system. This paper presents a generalized face anti-spoofing
framework that consists of three tasks: depth estimation, face parsing, and
live/spoof classification. With the pixel-wise supervision from the face
parsing and depth estimation tasks, the regularized features can better
distinguish spoof faces. While simulating domain shift with meta-learning
techniques, the proposed one-side triplet loss can further improve the
generalization capability by a large margin. Extensive experiments on four
public datasets demonstrate that the proposed framework and training strategies
are more effective than previous works for model generalization to unseen
domains.
- Abstract(参考訳): 顔提示攻撃のバリエーションの増加に伴い、モデル一般化は現実的な顔の反偽造システムにとって重要な課題となる。
本稿では, 深度推定, 顔解析, ライブ/スプーフ分類という3つの課題からなる, 汎用的な顔のアンチスプーフフレームワークを提案する。
顔解析や深度推定のタスクからの画素単位の監督により、正規化された特徴はスプーフの顔をよりよく識別することができる。
ドメインシフトをメタラーニング技術でシミュレートしながら、提案された一方の三重項損失により一般化能力がさらに向上する。
4つのパブリックデータセットに関する広範囲な実験により、提案されたフレームワークとトレーニング戦略が、未発見のドメインに対するモデル一般化のための以前の作業よりも効果的であることが示されている。
関連論文リスト
- Semantics-Oriented Multitask Learning for DeepFake Detection: A Joint Embedding Approach [77.65459419417533]
本稿ではセマンティクス指向のDeepFake検出タスクをサポートするための自動データセット拡張手法を提案する。
また,顔画像とそれに対応するラベルを併用して予測を行う。
提案手法は,DeepFake検出の一般化性を向上し,人間の理解可能な説明を提供することで,ある程度のモデル解釈を行う。
論文 参考訳(メタデータ) (2024-08-29T07:11:50Z) - Appearance Debiased Gaze Estimation via Stochastic Subject-Wise
Adversarial Learning [33.55397868171977]
外観に基づく視線推定はコンピュータビジョンにおいて注目されており、様々な深層学習技術を用いて顕著な改善が達成されている。
本稿では,被験者の外観を一般化するネットワークを訓練する,SAZE学習という新しい枠組みを提案する。
実験の結果,MPIIGazeデータセットとEyeDiapデータセットの3.89と4.42をそれぞれ達成した。
論文 参考訳(メタデータ) (2024-01-25T00:23:21Z) - Learning Multiple Explainable and Generalizable Cues for Face
Anti-spoofing [35.60198131792312]
本稿では,顔のアンチスプーフィングのための複数の説明可能な一般化可能なキュー(MEGC)を学習するための新しいフレームワークを提案する。
人的決定のプロセスに触発されて、主に人間によって使用される4つのキューが補助的な監督として紹介される。
論文 参考訳(メタデータ) (2022-02-21T12:55:59Z) - Dual Contrastive Learning for General Face Forgery Detection [64.41970626226221]
本稿では,正と負のペアデータを構成するDCL (Dual Contrastive Learning) という新しい顔偽造検出フレームワークを提案する。
本研究は, 事例内コントラスト学習(Intra-ICL)において, 偽造顔における局所的内容の不整合に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-27T05:44:40Z) - Face Anti-Spoofing Via Disentangled Representation Learning [90.90512800361742]
顔認識システムのセキュリティには、顔の偽造が不可欠だ。
本稿では,画像から生意気な特徴やコンテンツの特徴を乱す顔のアンチ・スプーフィングの新たな視点を提案する。
論文 参考訳(メタデータ) (2020-08-19T03:54:23Z) - HiFaceGAN: Face Renovation via Collaborative Suppression and
Replenishment [63.333407973913374]
フェース・リノベーション(FR)は意味誘導型生成問題である。
HiFaceGANは、複数のネストされたCSRユニットを含む多段階フレームワークである。
合成画像と実顔画像の両方の実験により,HiFaceGANの優れた性能が確認された。
論文 参考訳(メタデータ) (2020-05-11T11:33:17Z) - Single-Side Domain Generalization for Face Anti-Spoofing [91.79161815884126]
対面型アンチスプーフィングの一般化能力を向上させるために,エンドツーエンドの単一側ドメイン一般化フレームワークを提案する。
提案手法は,4つの公開データベース上での最先端手法よりも効果的かつ優れた手法である。
論文 参考訳(メタデータ) (2020-04-29T09:32:54Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。