論文の概要: Diffusion-Driven Deceptive Patches: Adversarial Manipulation and Forensic Detection in Facial Identity Verification
- arxiv url: http://arxiv.org/abs/2601.09806v1
- Date: Wed, 14 Jan 2026 19:12:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.866369
- Title: Diffusion-Driven Deceptive Patches: Adversarial Manipulation and Forensic Detection in Facial Identity Verification
- Title(参考訳): 拡散駆動型認知パッチ:顔認証における逆操作と法医学的検出
- Authors: Shahrzad Sayyafzadeh, Hongmei Chi, Shonda Bernadin,
- Abstract要約: この研究は、顔の生体認証システムに侵入するための敵対パッチの生成、精製、評価のためのエンドツーエンドパイプラインを提供する。
顔画像に修正パッチを適用し、自然な視覚特性を維持しながら認識システムを回避する能力をテストする。
このパイプラインは、対向条件下での顔認証と表情認識におけるアイデンティティ分類、キャプション結果、および脆弱性の変化を評価する。
- 参考スコア(独自算出の注目度): 0.20973843981871568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work presents an end-to-end pipeline for generating, refining, and evaluating adversarial patches to compromise facial biometric systems, with applications in forensic analysis and security testing. We utilize FGSM to generate adversarial noise targeting an identity classifier and employ a diffusion model with reverse diffusion to enhance imperceptibility through Gaussian smoothing and adaptive brightness correction, thereby facilitating synthetic adversarial patch evasion. The refined patch is applied to facial images to test its ability to evade recognition systems while maintaining natural visual characteristics. A Vision Transformer (ViT)-GPT2 model generates captions to provide a semantic description of a person's identity for adversarial images, supporting forensic interpretation and documentation for identity evasion and recognition attacks. The pipeline evaluates changes in identity classification, captioning results, and vulnerabilities in facial identity verification and expression recognition under adversarial conditions. We further demonstrate effective detection and analysis of adversarial patches and adversarial samples using perceptual hashing and segmentation, achieving an SSIM of 0.95.
- Abstract(参考訳): この研究は、顔の生体認証システムに侵入するための敵対パッチの生成、精錬、評価のためのエンドツーエンドパイプラインを示し、法医学的な分析とセキュリティテストに応用する。
我々はFGSMを用いて、識別分類器を対象とする対向ノイズを生成し、逆拡散拡散モデルを用いて、ガウスの滑らか化と適応輝度補正による不感性を高めることにより、合成対向パッチ回避を容易にする。
精製されたパッチは顔画像に適用され、自然な視覚特性を維持しながら認識システムを回避できる能力をテストする。
Vision Transformer (ViT)-GPT2モデルは、相手画像に対する人物のアイデンティティのセマンティック記述を提供するためにキャプションを生成する。
このパイプラインは、対向条件下での顔認証と表情認識におけるアイデンティティ分類、キャプション結果、および脆弱性の変化を評価する。
さらに, 知覚的ハッシュとセグメンテーションを用いて, 対向パッチと対向サンプルを効果的に検出・解析し, 0.95のSSIMを達成した。
関連論文リスト
- From Detection to Correction: Backdoor-Resilient Face Recognition via Vision-Language Trigger Detection and Noise-Based Neutralization [2.661968537236039]
バックドア攻撃はディープニューラルネットワーク(DNN)を利用した顔認識システムを覆す
そこで我々はTrueBiometric: Trustworthy Biometricsを提案する。
実験の結果,TrueBiometricはクリーンな画像の精度を損なうことなく,100%の精度で有毒な画像を検出し,修正することを示した。
論文 参考訳(メタデータ) (2025-08-07T14:02:34Z) - Leveraging Intermediate Features of Vision Transformer for Face Anti-Spoofing [0.11184789007828977]
本研究では,視覚変換器(ViT)を用いたスプーフィング攻撃検出手法を提案する。
また,フェース・アンチ・スフィング・データ拡張法とパッチ・ワイド・データ拡張法という2つのデータ拡張法を提案する。
提案手法の有効性を,OULU-NPUとSiWを用いた実験により実証した。
論文 参考訳(メタデータ) (2025-05-30T09:33:01Z) - ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に重大な脅威をもたらす。
この不正行為を防止するため、操作過程を妨害する積極的な防御法が提案されている。
本稿では,IDガード(ID-Guard)と呼ばれる顔の操作に対処するための普遍的な枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - CoReFace: Sample-Guided Contrastive Regularization for Deep Face
Recognition [3.1677775852317085]
特徴表現学習に画像レベルの正規化を適用するために,CoReFace(Contrastive Regularization for Face Recognition)を提案する。
具体的には、サンプル誘導型コントラスト学習を用いて、画像と画像の関係を直接調整する。
コントラスト学習を顔認識に統合するため,画像の画質劣化を回避するために,画像の代わりに埋め込みを拡大する。
論文 参考訳(メタデータ) (2023-04-23T14:33:24Z) - Towards Intrinsic Common Discriminative Features Learning for Face
Forgery Detection using Adversarial Learning [59.548960057358435]
本稿では, 対人学習を利用して, 異なる偽造法と顔の同一性による負の効果を除去する手法を提案する。
我々の顔偽造検出モデルは、偽造法や顔の同一性の影響を排除し、共通の識別的特徴を抽出することを学ぶ。
論文 参考訳(メタデータ) (2022-07-08T09:23:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。