論文の概要: Unified Physical-Digital Face Attack Detection
- arxiv url: http://arxiv.org/abs/2401.17699v1
- Date: Wed, 31 Jan 2024 09:38:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 15:19:13.163026
- Title: Unified Physical-Digital Face Attack Detection
- Title(参考訳): 物理デジタル顔検出の統一化
- Authors: Hao Fang, Ajian Liu, Haocheng Yuan, Junze Zheng, Dingheng Zeng,
Yanhong Liu, Jiankang Deng, Sergio Escalera, Xiaoming Liu, Jun Wan, Zhen Lei
- Abstract要約: 顔認識(FR)システムは物理的(印刷写真)とデジタル(ディープフェイク)攻撃に悩まされることがある。
以前の関連する作業では、両方の状況が同時に考慮されることはめったにありません。
視覚言語モデル(VLM)に基づく一元攻撃検出フレームワークを提案する。
- 参考スコア(独自算出の注目度): 66.14645299430157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face Recognition (FR) systems can suffer from physical (i.e., print photo)
and digital (i.e., DeepFake) attacks. However, previous related work rarely
considers both situations at the same time. This implies the deployment of
multiple models and thus more computational burden. The main reasons for this
lack of an integrated model are caused by two factors: (1) The lack of a
dataset including both physical and digital attacks with ID consistency which
means the same ID covers the real face and all attack types; (2) Given the
large intra-class variance between these two attacks, it is difficult to learn
a compact feature space to detect both attacks simultaneously. To address these
issues, we collect a Unified physical-digital Attack dataset, called
UniAttackData. The dataset consists of $1,800$ participations of 2 and 12
physical and digital attacks, respectively, resulting in a total of 29,706
videos. Then, we propose a Unified Attack Detection framework based on
Vision-Language Models (VLMs), namely UniAttackDetection, which includes three
main modules: the Teacher-Student Prompts (TSP) module, focused on acquiring
unified and specific knowledge respectively; the Unified Knowledge Mining (UKM)
module, designed to capture a comprehensive feature space; and the Sample-Level
Prompt Interaction (SLPI) module, aimed at grasping sample-level semantics.
These three modules seamlessly form a robust unified attack detection
framework. Extensive experiments on UniAttackData and three other datasets
demonstrate the superiority of our approach for unified face attack detection.
- Abstract(参考訳): 顔認識(FR)システムは物理的(印刷写真)とデジタル(ディープフェイク)攻撃に悩まされることがある。
しかし、以前の研究は両方の状況を同時に考慮することは滅多にない。
これにより、複数のモデルがデプロイされ、計算負荷が増大する。
統合モデルが欠如している主な理由は,(1)id一貫性を持つ物理攻撃とデジタル攻撃の両方を含むデータセットの欠如,(2)これら2つの攻撃のクラス内ばらつきが大きいため,両攻撃を同時に検出するためのコンパクトな機能空間の習得が困難である,という2つの要因による。
これらの問題に対処するために、UniAttackDataと呼ばれる統一物理デジタルアタックデータセットを収集します。
データセットは2つの物理的攻撃と12のデジタル攻撃の合計1,800ドルの参加から成り、合計で29,706本のビデオになる。
次に,視覚言語モデル(vlms)に基づく統一的攻撃検出フレームワーク,すなわち3つの主モジュールを含むユニアタック検出(uniattack detectionion)を提案する。教師・教師間プロンプト(tsp)モジュール,総合的な機能空間を捉えるために設計された統一知識マイニング(ukm)モジュール,サンプルレベルのセマンティクスを把握を目的としたサンプルレベルプロンプトインタラクション(slpi)モジュールである。
これら3つのモジュールは、堅牢な統一攻撃検出フレームワークをシームレスに形成する。
UniAttackDataおよび他の3つのデータセットに対する大規模な実験は、当社の顔攻撃検出に対するアプローチの優位性を実証している。
関連論文リスト
- Joint Physical-Digital Facial Attack Detection Via Simulating Spoofing Clues [17.132170955620047]
本研究では,単一モデル内での物理的攻撃とデジタル攻撃を共同で検出する革新的な手法を提案する。
提案手法は主に,SPSC(Simulated Physical Spoofing Clues Augmentation)とSDSC(Simulated Digital Spoofing Clues Augmentation)という2種類のデータ拡張を含む。
The 5th Face Anti-Spoofing Challenge@CVPR2024の"Unified Physical-Digital Face Detection"で優勝した。
論文 参考訳(メタデータ) (2024-04-12T13:01:22Z) - Unified Physical-Digital Attack Detection Challenge [70.67222784932528]
Face Anti-Spoofing (FAS) は、顔認識(FR)システムを保護するために重要である。
UniAttackDataは、Unified Detectionのための最大の公開データセットである。
我々は,一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元一元
論文 参考訳(メタデータ) (2024-04-09T11:00:11Z) - LESSON: Multi-Label Adversarial False Data Injection Attack for Deep Learning Locational Detection [15.491101949025651]
本稿では,Multi-labEl adverSarial falSe data injectiON attack (LESSON) と呼ばれる汎用マルチラベル逆攻撃フレームワークを提案する。
提案手法に基づく4つの典型的なLESSON攻撃と2次元の攻撃目標について検討した。
論文 参考訳(メタデータ) (2024-01-29T09:44:59Z) - Susceptibility of Adversarial Attack on Medical Image Segmentation
Models [0.0]
我々は,MRIデータセット上で訓練したセグメンテーションモデルに対する敵攻撃の効果について検討した。
医療画像のセグメンテーションモデルは、実際に敵の攻撃に対して脆弱であることがわかった。
トレーニングで使用するものと異なる損失関数を用いることで,高い敵攻撃効果が得られることを示す。
論文 参考訳(メタデータ) (2024-01-20T12:52:20Z) - Your Attack Is Too DUMB: Formalizing Attacker Scenarios for Adversarial
Transferability [17.899587145780817]
侵入攻撃は機械学習モデルに対する脅威であり、敵は悪意のあるサンプルを注入することで分類に影響を与えようとする。
本研究では,サロゲートモデルと被害者モデルの訓練条件が異なる場合の回避攻撃が転送に失敗するかどうかを解析できるDUMB攻撃モデルを提案する。
14件の異なる攻撃に対して13Kの試験を行った結果,サロゲートモデルを用いた移動可能な攻撃範囲の新たな発見が得られた。
論文 参考訳(メタデータ) (2023-06-27T10:21:27Z) - Semantic Image Attack for Visual Model Diagnosis [80.36063332820568]
実際には、特定の列車およびテストデータセットに関する計量分析は、信頼性や公正なMLモデルを保証しない。
本稿では,セマンティック・イメージ・アタック(SIA)を提案する。
論文 参考訳(メタデータ) (2023-03-23T03:13:04Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - A White-Box Adversarial Attack Against a Digital Twin [0.0]
本稿では,敵対的攻撃に対するDigital Twin(DT)の感受性について検討する。
まず、ディープニューラルネットワークアーキテクチャを用いて車両システムのDTを定式化し、それから敵攻撃を開始する。
トレーニングされたモデルへの入力を摂動させることでDTモデルを攻撃し、ホワイトボックスアタックによってモデルがいかに簡単に破られるかを示す。
論文 参考訳(メタデータ) (2022-10-25T13:41:02Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。