論文の概要: FA^{3}-CLIP: Frequency-Aware Cues Fusion and Attack-Agnostic Prompt Learning for Unified Face Attack Detection
- arxiv url: http://arxiv.org/abs/2504.00454v1
- Date: Tue, 01 Apr 2025 06:19:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:22:06.404848
- Title: FA^{3}-CLIP: Frequency-Aware Cues Fusion and Attack-Agnostic Prompt Learning for Unified Face Attack Detection
- Title(参考訳): FA^{3}-CLIP: 単一顔検出のための周波数対応キュース融合と攻撃非依存プロンプト学習
- Authors: Yongze Li, Ning Li, Ajian Liu, Hui Ma, Liying Yang, Xihong Chen, Zhiyao Liang, Yanyan Liang, Jun Wan, Zhen Lei,
- Abstract要約: 顔認識システムは物理的(例えば印刷された写真)やデジタル(例えばディープフェイク)の顔攻撃に対して脆弱である。
既存の手法では、クラス内の大きなバリエーションにより、物理的およびデジタル攻撃を同時に検出するのに苦労している。
本稿では、FAsupertextscript3-CLIP(FAsupertextscript3-CLIP)と呼ばれる攻撃検出モデルを提案する。
- 参考スコア(独自算出の注目度): 26.615096090240613
- License:
- Abstract: Facial recognition systems are vulnerable to physical (e.g., printed photos) and digital (e.g., DeepFake) face attacks. Existing methods struggle to simultaneously detect physical and digital attacks due to: 1) significant intra-class variations between these attack types, and 2) the inadequacy of spatial information alone to comprehensively capture live and fake cues. To address these issues, we propose a unified attack detection model termed Frequency-Aware and Attack-Agnostic CLIP (FA\textsuperscript{3}-CLIP), which introduces attack-agnostic prompt learning to express generic live and fake cues derived from the fusion of spatial and frequency features, enabling unified detection of live faces and all categories of attacks. Specifically, the attack-agnostic prompt module generates generic live and fake prompts within the language branch to extract corresponding generic representations from both live and fake faces, guiding the model to learn a unified feature space for unified attack detection. Meanwhile, the module adaptively generates the live/fake conditional bias from the original spatial and frequency information to optimize the generic prompts accordingly, reducing the impact of intra-class variations. We further propose a dual-stream cues fusion framework in the vision branch, which leverages frequency information to complement subtle cues that are difficult to capture in the spatial domain. In addition, a frequency compression block is utilized in the frequency stream, which reduces redundancy in frequency features while preserving the diversity of crucial cues. We also establish new challenging protocols to facilitate unified face attack detection effectiveness. Experimental results demonstrate that the proposed method significantly improves performance in detecting physical and digital face attacks, achieving state-of-the-art results.
- Abstract(参考訳): 顔認識システムは、物理的(例:プリント写真)とデジタル(例:DeepFake)の顔攻撃に弱い。
既存の方法は、物理的およびデジタル的な攻撃を同時に検出するのに苦労している。
1)これらの攻撃種別とクラス内の有意な変動
2) 生活・偽の手がかりを包括的に把握するには, 空間情報の不十分さのみが必要である。
これらの問題に対処するため,我々は,空間的特徴と周波数的特徴の融合から派生した汎用的な生と偽の手がかりを表現するために,攻撃非依存のプロンプト学習を導入し,生の顔と攻撃のすべてのカテゴリを統一的に検出する,同時攻撃検出モデル(FA\textsuperscript{3}-CLIP)を提案する。
具体的には、攻撃非依存のプロンプトモジュールは、言語ブランチ内でジェネリックライブとフェイクプロンプトを生成して、ライブとフェイクの両方の顔から対応するジェネリック表現を抽出し、モデルを誘導して、統一された攻撃検出のための統一された特徴空間を学ぶ。
一方、モジュールは、元の空間および周波数情報からライブ/フェイク条件バイアスを適応的に生成し、ジェネリックプロンプトを最適化し、クラス内変動の影響を低減する。
さらに、空間領域において捕捉が困難な微妙なキューを補うために、周波数情報を活用するビジョンブランチにおけるデュアルストリームキュー融合フレームワークを提案する。
また、周波数ストリームには周波数圧縮ブロックが使用され、重要なキューの多様性を保ちながら周波数特性の冗長性を低下させる。
我々はまた、顔攻撃検出の統一化を容易にするための新しい挑戦的プロトコルも確立した。
実験結果から,本手法は身体的およびデジタル的顔攻撃の検出性能を著しく向上し,最先端の結果が得られた。
関連論文リスト
- UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Flow-Attention-based Spatio-Temporal Aggregation Network for 3D Mask
Detection [12.160085404239446]
本稿では,FASTENと呼ばれる新しい3次元マスク検出フレームワークを提案する。
ネットワークが大きな動きの細部に集中するように調整することで、余分な時間的特徴干渉を排除できる。
FASTENは5フレームの入力しか必要とせず、データ内評価とクロスデータセット評価の両方で8つの競合より優れている。
論文 参考訳(メタデータ) (2023-10-25T11:54:21Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Attention Consistency Refined Masked Frequency Forgery Representation
for Generalizing Face Forgery Detection [96.539862328788]
既存の偽造検出方法は、未確認領域の真正性を決定する不満足な一般化能力に悩まされている。
ACMF(Attention Consistency Refined masked frequency forgery representation model)を提案する。
いくつかのパブリックフェイスフォージェリーデータセットの実験結果から,提案手法の性能は最先端の手法と比較して優れていることが示された。
論文 参考訳(メタデータ) (2023-07-21T08:58:49Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Detecting Adversarial Faces Using Only Real Face Self-Perturbations [36.26178169550577]
アドリアックは、入力サンプルに特定のノイズを加えることで、ターゲットシステムの機能を妨害することを目的としている。
既存の防御技術は、特定の対向顔(adv-faces)の検出において高い精度を達成する
全く異なるノイズパターンを持つ新しい攻撃方法、特にGANベースの攻撃は、それらを回避し、より高い攻撃成功率に達する。
論文 参考訳(メタデータ) (2023-04-22T09:55:48Z) - Exploring Frequency Adversarial Attacks for Face Forgery Detection [59.10415109589605]
フェースフォージェリ検出器に対する周波数対向攻撃法を提案する。
また,メタラーニングの概念に触発されて,空間領域と周波数領域の両方で攻撃を行うハイブリッド逆攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-29T15:34:13Z) - MC-LCR: Multi-modal contrastive classification by locally correlated
representations for effective face forgery detection [11.124150983521158]
局所的関連表現を用いたマルチモーダルコントラスト分類法を提案する。
我々のMC-LCRは、空間領域と周波数領域の両方から真偽顔と偽顔の暗黙の局所的不一致を増幅することを目的としている。
我々は最先端の性能を達成し,本手法の堅牢性と一般化を実証する。
論文 参考訳(メタデータ) (2021-10-07T09:24:12Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。