論文の概要: Improving Transferability of Adversarial Examples on Face Recognition
with Beneficial Perturbation Feature Augmentation
- arxiv url: http://arxiv.org/abs/2210.16117v1
- Date: Fri, 28 Oct 2022 13:25:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 16:34:00.621407
- Title: Improving Transferability of Adversarial Examples on Face Recognition
with Beneficial Perturbation Feature Augmentation
- Title(参考訳): 有益摂動特徴付加による顔認識における逆例の伝達性の向上
- Authors: Fengfan Zhou, Hefei Ling, Yuxuan Shi, Jiazhong Chen, Zongyi Li, Qian
Wang
- Abstract要約: 顔認識(FR)モデルは、良質な顔画像に知覚不能な摂動を加えることで、敵の例によって容易に騙される。
BPFA(Besticial Perturbation Feature Augmentation Attack)と呼ばれる新しい攻撃法を提案する。
BPFAは、敵の例の過剰適合を減らし、敵の戦略によってFRモデルをシュロゲートする。
- 参考スコア(独自算出の注目度): 19.59085699652545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face recognition (FR) models can be easily fooled by adversarial examples,
which are crafted by adding imperceptible perturbations on benign face images.
To improve the transferability of adversarial examples on FR models, we propose
a novel attack method called Beneficial Perturbation Feature Augmentation
Attack (BPFA), which reduces the overfitting of the adversarial examples to
surrogate FR models by the adversarial strategy. Specifically, in the
backpropagation step, BPFA records the gradients on pre-selected features and
uses the gradient on the input image to craft adversarial perturbation to be
added on the input image. In the next forward propagation step, BPFA leverages
the recorded gradients to add perturbations(i.e., beneficial perturbations)
that can be pitted against the adversarial perturbation added on the input
image on their corresponding features. The above two steps are repeated until
the last backpropagation step before the maximum number of iterations is
reached. The optimization process of the adversarial perturbation added on the
input image and the optimization process of the beneficial perturbations added
on the features correspond to a minimax two-player game. Extensive experiments
demonstrate that BPFA outperforms the state-of-the-art gradient-based
adversarial attacks on FR.
- Abstract(参考訳): 顔認識(FR)モデルは、良質な顔画像に知覚不能な摂動を加えることで、敵対的な例によって容易に騙される。
本研究では, FRモデル上での対向例の転送性を向上させるため, BPFA (Beeficial Perturbation Feature Augmentation Attack) と呼ばれる新たな攻撃手法を提案する。
具体的には、バックプロパゲーションステップにおいて、bpfaは予め選択された特徴の勾配を記録し、入力画像上の勾配を用いて、入力画像に副次的な摂動を加える。
次の転送ステップでは、bpfaは記録された勾配を利用して、対応する特徴の入力画像に付加された逆摂動に対してピットできる摂動(すなわち、有益な摂動)を付加する。
上記の2つのステップは、イテレーションの最大数に達する前の最後のバックプロパゲーションステップまで繰り返される。
入力画像に付加される対向摂動の最適化プロセスと、特徴に付加される有益摂動の最適化プロセスは、ミニマックス2プレーヤゲームに対応する。
広範囲にわたる実験により、BPFAはFRに対する最先端の勾配に基づく敵攻撃よりも優れていることが示された。
関連論文リスト
- Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - LFAA: Crafting Transferable Targeted Adversarial Examples with
Low-Frequency Perturbations [25.929492841042666]
本稿では,トランスファー可能な対象対向例を生成するための新しい手法を提案する。
画像の高周波成分の摂動にディープニューラルネットワークの脆弱性を利用する。
提案手法は最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-10-31T04:54:55Z) - Mist: Towards Improved Adversarial Examples for Diffusion Models [0.8883733362171035]
拡散モデル(DM)は、人工知能によって生成されたコンテンツ、特にアート作品の制作において大きな成功を収めた。
侵害者は、認可されていない人造絵画をDMで模倣することで利益を得ることができる。
近年の研究では、拡散モデルに対する様々な逆例が、これらの著作権侵害に対する効果的な手段である可能性が示唆されている。
論文 参考訳(メタデータ) (2023-05-22T03:43:34Z) - Generating Adversarial Examples with Better Transferability via Masking
Unimportant Parameters of Surrogate Model [6.737574282249396]
非重要マスキングパラメータ(MUP)を用いた転送攻撃における敵例の転送可能性の向上を提案する。
MUPのキーとなるアイデアは、事前訓練されたサロゲートモデルを洗練して、転送ベースの攻撃を強化することである。
論文 参考訳(メタデータ) (2023-04-14T03:06:43Z) - The Enemy of My Enemy is My Friend: Exploring Inverse Adversaries for
Improving Adversarial Training [72.39526433794707]
敵の訓練とその変種は、敵の例に対抗して最も効果的なアプローチであることが示されている。
本稿では,モデルが類似した出力を生成することを奨励する,新たな対角訓練手法を提案する。
本手法は,最先端のロバスト性および自然な精度を実現する。
論文 参考訳(メタデータ) (2022-11-01T15:24:26Z) - Exposing Fine-Grained Adversarial Vulnerability of Face Anti-Spoofing
Models [13.057451851710924]
Face-Spoofingは、スプーフする顔画像(例えば、印刷された写真)をライブ画像と区別することを目的としている。
従来は対向攻撃法を用いて対面防汚性能の評価を行った。
本稿では,顔の反偽造モデルにおけるきめ細かな敵の脆弱性を明らかにするための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-30T04:56:33Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z) - Improving White-box Robustness of Pre-processing Defenses via Joint
Adversarial Training [159.69490269760576]
対向騒音の干渉を軽減するため,様々な対向防御技術が提案されている。
プレプロセス法は、ロバストネス劣化効果に悩まされることがある。
この負の効果の潜在的な原因は、敵の訓練例が静的であり、前処理モデルとは独立していることである。
本稿では,JATP(Joint Adversarial Training Based Pre-processing)防衛法を提案する。
論文 参考訳(メタデータ) (2021-06-10T01:45:32Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。