論文の概要: Stealthy Physical Masked Face Recognition Attack via Adversarial Style
Optimization
- arxiv url: http://arxiv.org/abs/2309.09480v1
- Date: Mon, 18 Sep 2023 04:36:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 15:11:43.935522
- Title: Stealthy Physical Masked Face Recognition Attack via Adversarial Style
Optimization
- Title(参考訳): 対向型最適化によるステルス物理マスク型顔認識攻撃
- Authors: Huihui Gong, Minjing Dong, Siqi Ma, Seyit Camtepe, Surya Nepal, Chang
Xu
- Abstract要約: 新型コロナウイルス(COVID-19)のパンデミック時代には、マスクを着用することが新型コロナウイルス対策の最も効果的な方法の1つだ。
ディープニューラルネットワーク(DNN)は、過去10年間に顔認識(FR)タスクにおける最先端のパフォーマンスを達成した。
本稿では,敵対的スタイルの最適化による新たなステルス物理マスクFR攻撃を提案する。
- 参考スコア(独自算出の注目度): 47.21491911505409
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have achieved state-of-the-art performance on
face recognition (FR) tasks in the last decade. In real scenarios, the
deployment of DNNs requires taking various face accessories into consideration,
like glasses, hats, and masks. In the COVID-19 pandemic era, wearing face masks
is one of the most effective ways to defend against the novel coronavirus.
However, DNNs are known to be vulnerable to adversarial examples with a small
but elaborated perturbation. Thus, a facial mask with adversarial perturbations
may pose a great threat to the widely used deep learning-based FR models. In
this paper, we consider a challenging adversarial setting: targeted attack
against FR models. We propose a new stealthy physical masked FR attack via
adversarial style optimization. Specifically, we train an adversarial style
mask generator that hides adversarial perturbations inside style masks.
Moreover, to ameliorate the phenomenon of sub-optimization with one fixed
style, we propose to discover the optimal style given a target through style
optimization in a continuous relaxation manner. We simultaneously optimize the
generator and the style selection for generating strong and stealthy
adversarial style masks. We evaluated the effectiveness and transferability of
our proposed method via extensive white-box and black-box digital experiments.
Furthermore, we also conducted physical attack experiments against local FR
models and online platforms.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、過去10年間で顔認識(FR)タスクにおける最先端のパフォーマンスを達成した。
実際のシナリオでは、DNNの展開には、眼鏡、帽子、マスクなど、さまざまな顔アクセサリーを考慮する必要がある。
新型コロナウイルス(COVID-19)のパンデミック時代には、マスクを着用することが新型コロナウイルス対策の最も効果的な方法の1つだ。
しかし、DNNは小さなが精巧な摂動を持つ敵の例に弱いことが知られている。
したがって、逆向きの摂動を持つ顔のマスクは、広く使われているディープラーニングベースのfrモデルにとって大きな脅威となる可能性がある。
本稿では,frモデルに対する標的攻撃という,挑戦的な敵意設定を考える。
本稿では,敵対的スタイルの最適化によるステルス物理マスクFR攻撃を提案する。
具体的には,対向型マスク生成装置を訓練し,対向型マスク内の摂動を隠蔽する。
さらに,1つの固定スタイルでサブ最適化の現象を改善するため,連続緩和方式で最適化することで,ターゲットに与えられた最適スタイルを見出す。
強力でステルスなスタイルマスクを生成するために,ジェネレータとスタイル選択を同時に最適化する。
提案手法の有効性と移動性について,ホワイトボックスおよびブラックボックスディジタル実験を用いて評価した。
さらに,ローカルFRモデルやオンラインプラットフォームに対する物理的攻撃実験も行った。
関連論文リスト
- DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [93.45507533317405]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - RSTAM: An Effective Black-Box Impersonation Attack on Face Recognition
using a Mobile and Compact Printer [10.245536402327096]
RSTAMと呼ばれる顔認識モデルやシステムを攻撃する新しい手法を提案する。
RSTAMは、モバイルおよびコンパクトプリンタによって印刷された対向マスクを用いて、効果的なブラックボックス偽造攻撃を可能にする。
攻撃のパフォーマンスは、Face++、Baidu、Aliyun、Tencent、Microsoftといった最先端の商用顔認識システムでも評価されている。
論文 参考訳(メタデータ) (2022-06-25T08:16:55Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Adversarial Mask: Real-World Adversarial Attack Against Face Recognition
Models [66.07662074148142]
本稿では,最先端の深層学習に基づく顔認識モデルに対する物理対角的普遍摂動(UAP)を提案する。
実験では,幅広い深層学習モデルとデータセットへの対向マスクの転送可能性について検討した。
ファブリック・メディカル・フェイスマスクに対向パターンを印刷することにより,実世界の実験において,我々の対向マスクの有効性を検証した。
論文 参考訳(メタデータ) (2021-11-21T08:13:21Z) - Partial Attack Supervision and Regional Weighted Inference for Masked
Face Presentation Attack Detection [5.71864964818217]
マスクを着用することはSARS-CoV-2の感染を防ぐ最も効果的な方法の1つであることが証明されている。
マスクフェイスPADに直面する主な問題は、不正に分類されたボナフェイドのマスクと、不正に分類された部分攻撃である。
本研究では,PADモデルトレーニングを監督する部分攻撃ラベルと,PAD性能を改善するための地域重み付き推論を提案する。
論文 参考訳(メタデータ) (2021-11-08T08:53:46Z) - Real Masks and Fake Faces: On the Masked Face Presentation Attack
Detection [7.324459578044212]
顔認識(FR)は、いくつかの識別機能が隠されているため、難しい作業です。
顔提示攻撃検出(PAD)はFRシステムのセキュリティを確保するために重要です。
本研究では,現実世界の状況を反映して,マスクを装着した被験者による実在のマスクによる斬新な攻撃を提示する。
論文 参考訳(メタデータ) (2021-03-02T08:05:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。