論文の概要: Spoofing-aware Prompt Learning for Unified Physical-Digital Facial Attack Detection
- arxiv url: http://arxiv.org/abs/2512.06363v1
- Date: Sat, 06 Dec 2025 09:34:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.323643
- Title: Spoofing-aware Prompt Learning for Unified Physical-Digital Facial Attack Detection
- Title(参考訳): 身近な顔検出のためのスポーフィング・アウェア・プロンプト学習
- Authors: Jiabao Guo, Yadian Wang, Hui Ma, Yuhao Fu, Ju Jia, Hui Liu, Shengeng Tang, Lechao Cheng, Yunfeng Diao, Ajian Liu,
- Abstract要約: 実世界の顔認識システムは、物理的提示攻撃(PA)とデジタル偽造攻撃(DF)の両方に脆弱である
本稿では,迅速な空間における物理的およびデジタル攻撃のための最適化分岐を分離する,SPL-UAD(Spoofing-aware Prompt Learning for Unified Detection)フレームワークを提案する。
大規模UniAttackDataPlusデータセットの実験により,提案手法は攻撃検出タスクの統一化において,大幅な性能向上を実現することが示された。
- 参考スコア(独自算出の注目度): 28.74960061024677
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world face recognition systems are vulnerable to both physical presentation attacks (PAs) and digital forgery attacks (DFs). We aim to achieve comprehensive protection of biometric data by implementing a unified physical-digital defense framework with advanced detection. Existing approaches primarily employ CLIP with regularization constraints to enhance model generalization across both tasks. However, these methods suffer from conflicting optimization directions between physical and digital attack detection under same category prompt spaces. To overcome this limitation, we propose a Spoofing-aware Prompt Learning for Unified Attack Detection (SPL-UAD) framework, which decouples optimization branches for physical and digital attacks in the prompt space. Specifically, we construct a learnable parallel prompt branch enhanced with adaptive Spoofing Context Prompt Generation, enabling independent control of optimization for each attack type. Furthermore, we design a Cues-awareness Augmentation that leverages the dual-prompt mechanism to generate challenging sample mining tasks on data, significantly enhancing the model's robustness against unseen attack types. Extensive experiments on the large-scale UniAttackDataPlus dataset demonstrate that the proposed method achieves significant performance improvements in unified attack detection tasks.
- Abstract(参考訳): 現実世界の顔認識システムは、物理的なプレゼンテーションアタック(PA)とデジタルフォージェリーアタック(DF)の両方に対して脆弱である。
我々は,高度な検出機能を備えた統合物理デジタル防衛フレームワークを実装することにより,バイオメトリックデータの包括的保護を実現することを目的とする。
既存のアプローチでは、主にCLIPと正規化制約を使用して、両方のタスクにわたるモデルの一般化を強化している。
しかし、これらの手法は、同一カテゴリのプロンプト空間下での物理的およびデジタル攻撃検出の最適化方向の矛盾に悩まされている。
この制限を克服するため,本研究では,物理的およびディジタル攻撃の最適化ブランチを分離する,SPL-UAD(Spowing-Aware Prompt Learning for Unified Detection)フレームワークを提案する。
具体的には,適応型Spofing Context Prompt Generationで強化された学習可能な並列プロンプトブランチを構築し,攻撃タイプ毎に最適化の独立制御を可能にする。
さらに,データ上でのサンプルマイニングの課題を生成するために,デュアルプロンプト機構を活用するCues-Awareness Augmentationを設計し,不明瞭な攻撃タイプに対するモデルのロバスト性を大幅に向上させる。
大規模UniAttackDataPlusデータセットの大規模な実験により、提案手法は、統合攻撃検出タスクにおいて、大幅な性能向上を実現することを示した。
関連論文リスト
- MirGuard: Towards a Robust Provenance-based Intrusion Detection System Against Graph Manipulation Attacks [13.92935628832727]
MirGuardは、ロジック対応のマルチビュー拡張とコントラスト表現学習を組み合わせた異常検出フレームワークである。
MirGuardは、さまざまなグラフ操作攻撃に対して、最先端の検出器の堅牢性を大幅に上回っている。
論文 参考訳(メタデータ) (2025-08-14T13:35:51Z) - Unleashing the Power of Pre-trained Encoders for Universal Adversarial Attack Detection [21.03032944637112]
アドリアック攻撃は、現実世界のAIシステムにとって重要なセキュリティ脅威となる。
本稿では,大規模事前学習型視覚言語モデルCLIPに基づく,軽量な逆検出フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-01T05:21:45Z) - Concealed Adversarial attacks on neural networks for sequential data [2.1879059908547482]
我々は、異なる時系列モデルに対する隠れた敵攻撃を開発する。
より現実的な摂動を提供し、人間またはモデル判別器によって検出するのが困難である。
この結果から,堅牢な時系列モデルを設計する上での課題が浮き彫りになった。
論文 参考訳(メタデータ) (2025-02-28T11:03:32Z) - Redefining DDoS Attack Detection Using A Dual-Space Prototypical Network-Based Approach [38.38311259444761]
我々は、DDoS攻撃を検出するための新しいディープラーニングベースの技術を導入する。
本稿では,一意な双対空間損失関数を利用する新しい双対空間原型ネットワークを提案する。
このアプローチは、潜在空間における表現学習の強みを生かしている。
論文 参考訳(メタデータ) (2024-06-04T03:22:52Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Towards Adversarial Realism and Robust Learning for IoT Intrusion
Detection and Classification [0.0]
IoT(Internet of Things)は、重大なセキュリティ上の課題に直面している。
敵の攻撃による脅威の増大は、信頼できる防衛戦略の必要性を回復させる。
本研究は、敵のサイバー攻撃事例が現実的であるために必要な制約の種類について述べる。
論文 参考訳(メタデータ) (2023-01-30T18:00:28Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。