論文の概要: Improving Transferability of Adversarial Examples on Face Recognition
with Beneficial Perturbation Feature Augmentation
- arxiv url: http://arxiv.org/abs/2210.16117v1
- Date: Fri, 28 Oct 2022 13:25:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 16:34:00.621407
- Title: Improving Transferability of Adversarial Examples on Face Recognition
with Beneficial Perturbation Feature Augmentation
- Title(参考訳): 有益摂動特徴付加による顔認識における逆例の伝達性の向上
- Authors: Fengfan Zhou, Hefei Ling, Yuxuan Shi, Jiazhong Chen, Zongyi Li, Qian
Wang
- Abstract要約: 顔認識(FR)モデルは、良質な顔画像に知覚不能な摂動を加えることで、敵の例によって容易に騙される。
BPFA(Besticial Perturbation Feature Augmentation Attack)と呼ばれる新しい攻撃法を提案する。
BPFAは、敵の例の過剰適合を減らし、敵の戦略によってFRモデルをシュロゲートする。
- 参考スコア(独自算出の注目度): 19.59085699652545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face recognition (FR) models can be easily fooled by adversarial examples,
which are crafted by adding imperceptible perturbations on benign face images.
To improve the transferability of adversarial examples on FR models, we propose
a novel attack method called Beneficial Perturbation Feature Augmentation
Attack (BPFA), which reduces the overfitting of the adversarial examples to
surrogate FR models by the adversarial strategy. Specifically, in the
backpropagation step, BPFA records the gradients on pre-selected features and
uses the gradient on the input image to craft adversarial perturbation to be
added on the input image. In the next forward propagation step, BPFA leverages
the recorded gradients to add perturbations(i.e., beneficial perturbations)
that can be pitted against the adversarial perturbation added on the input
image on their corresponding features. The above two steps are repeated until
the last backpropagation step before the maximum number of iterations is
reached. The optimization process of the adversarial perturbation added on the
input image and the optimization process of the beneficial perturbations added
on the features correspond to a minimax two-player game. Extensive experiments
demonstrate that BPFA outperforms the state-of-the-art gradient-based
adversarial attacks on FR.
- Abstract(参考訳): 顔認識(FR)モデルは、良質な顔画像に知覚不能な摂動を加えることで、敵対的な例によって容易に騙される。
本研究では, FRモデル上での対向例の転送性を向上させるため, BPFA (Beeficial Perturbation Feature Augmentation Attack) と呼ばれる新たな攻撃手法を提案する。
具体的には、バックプロパゲーションステップにおいて、bpfaは予め選択された特徴の勾配を記録し、入力画像上の勾配を用いて、入力画像に副次的な摂動を加える。
次の転送ステップでは、bpfaは記録された勾配を利用して、対応する特徴の入力画像に付加された逆摂動に対してピットできる摂動(すなわち、有益な摂動)を付加する。
上記の2つのステップは、イテレーションの最大数に達する前の最後のバックプロパゲーションステップまで繰り返される。
入力画像に付加される対向摂動の最適化プロセスと、特徴に付加される有益摂動の最適化プロセスは、ミニマックス2プレーヤゲームに対応する。
広範囲にわたる実験により、BPFAはFRに対する最先端の勾配に基づく敵攻撃よりも優れていることが示された。
関連論文リスト
- Boosting the Targeted Transferability of Adversarial Examples via Salient Region & Weighted Feature Drop [2.176586063731861]
敵攻撃に対する一般的なアプローチは、敵の例の転送可能性に依存する。
SWFD(Salient Region & Weighted Feature Drop)をベースとした新しいフレームワークは,敵対的事例のターゲット転送可能性を高める。
論文 参考訳(メタデータ) (2024-11-11T08:23:37Z) - Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Adversarial Attacks on Both Face Recognition and Face Anti-spoofing Models [47.72177312801278]
顔認識(FR)システムに対するアドリアック攻撃は、純粋なFRモデルの妥協に非常に効果的であることが証明されている。
本稿では, FR モデルと Face Anti-Spoofing (FAS) モデルの両方を同時に攻撃する新しい設定を提案する。
我々は、FRモデルとFASモデルの両方に対するブラックボックス攻撃のキャパシティを改善するために、スタイル整列分散バイアス(SDB)と呼ばれる新しいアタック手法を導入する。
論文 参考訳(メタデータ) (2024-05-27T08:30:29Z) - Efficient Generation of Targeted and Transferable Adversarial Examples for Vision-Language Models Via Diffusion Models [17.958154849014576]
大規模視覚言語モデル(VLM)のロバスト性を評価するために、敵対的攻撃を用いることができる。
従来のトランスファーベースの敵攻撃は、高いイテレーション数と複雑なメソッド構造により、高いコストを発生させる。
本稿では, 拡散モデルを用いて, 自然, 制約のない, 対象とする対向的な例を生成するAdvDiffVLMを提案する。
論文 参考訳(メタデータ) (2024-04-16T07:19:52Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - LFAA: Crafting Transferable Targeted Adversarial Examples with
Low-Frequency Perturbations [25.929492841042666]
本稿では,トランスファー可能な対象対向例を生成するための新しい手法を提案する。
画像の高周波成分の摂動にディープニューラルネットワークの脆弱性を利用する。
提案手法は最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-10-31T04:54:55Z) - Generating Adversarial Examples with Better Transferability via Masking
Unimportant Parameters of Surrogate Model [6.737574282249396]
非重要マスキングパラメータ(MUP)を用いた転送攻撃における敵例の転送可能性の向上を提案する。
MUPのキーとなるアイデアは、事前訓練されたサロゲートモデルを洗練して、転送ベースの攻撃を強化することである。
論文 参考訳(メタデータ) (2023-04-14T03:06:43Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。