論文の概要: Boosting Adversarial Transferability with Learnable Patch-wise Masks
- arxiv url: http://arxiv.org/abs/2306.15931v2
- Date: Mon, 11 Sep 2023 05:53:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 19:26:27.004568
- Title: Boosting Adversarial Transferability with Learnable Patch-wise Masks
- Title(参考訳): 学習可能なパッチワイズマスクによる対向移動性の向上
- Authors: Xingxing Wei, Shiji Zhao
- Abstract要約: 敵の例は、異なるモデル間での転送可能性のため、セキュリティクリティカルなアプリケーションで広く注目を集めている。
本稿では、モデル固有の識別領域が、ソースモデルに過度に適合し、ターゲットモデルへの転送可能性を低減する重要な要因であると論じる。
これらの領域を正確にローカライズするために,マスクの自動最適化のための学習可能なアプローチを提案する。
- 参考スコア(独自算出の注目度): 16.46210182214551
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples have attracted widespread attention in security-critical
applications because of their transferability across different models. Although
many methods have been proposed to boost adversarial transferability, a gap
still exists between capabilities and practical demand. In this paper, we argue
that the model-specific discriminative regions are a key factor causing
overfitting to the source model, and thus reducing the transferability to the
target model. For that, a patch-wise mask is utilized to prune the
model-specific regions when calculating adversarial perturbations. To
accurately localize these regions, we present a learnable approach to
automatically optimize the mask. Specifically, we simulate the target models in
our framework, and adjust the patch-wise mask according to the feedback of the
simulated models. To improve the efficiency, the differential evolutionary (DE)
algorithm is utilized to search for patch-wise masks for a specific image.
During iterative attacks, the learned masks are applied to the image to drop
out the patches related to model-specific regions, thus making the gradients
more generic and improving the adversarial transferability. The proposed
approach is a preprocessing method and can be integrated with existing methods
to further boost the transferability. Extensive experiments on the ImageNet
dataset demonstrate the effectiveness of our method. We incorporate the
proposed approach with existing methods to perform ensemble attacks and achieve
an average success rate of 93.01% against seven advanced defense methods, which
can effectively enhance the state-of-the-art transfer-based attack performance.
- Abstract(参考訳): セキュリティクリティカルなアプリケーションでは、異なるモデル間の転送可能性のために、逆の例が広く注目を集めている。
対向移動性を高めるために多くの方法が提案されているが、能力と実用的需要の間には依然としてギャップがある。
本稿では、モデル固有の識別領域が、ソースモデルに過度に適合し、ターゲットモデルへの転送可能性を低減する重要な要因であると論じる。
そのため、対向摂動を計算する際に、パッチワイズマスクを用いてモデル固有領域をプルークする。
これらの領域を正確にローカライズするために,マスクの自動最適化のための学習可能なアプローチを提案する。
具体的には、本フレームワークのターゲットモデルをシミュレートし、シミュレートされたモデルのフィードバックに応じてパッチワイドマスクを調整する。
効率を改善するために、差動進化(DE)アルゴリズムを用いて特定の画像に対するパッチワイドマスクを探索する。
反復攻撃中、学習したマスクを画像に適用して、モデル固有の領域に関するパッチをドロップアウトし、勾配をより汎用的にし、対向移動性を向上させる。
提案手法はプリプロセッシング手法であり, 既存手法と統合することで, 転送性をさらに高めることができる。
ImageNetデータセットの大規模な実験により,本手法の有効性が示された。
提案手法を既存手法に組み込んでアンサンブル攻撃を行い、7つの先進的防御手法に対して平均成功率93.01%を達成し,最先端のトランスファーベース攻撃性能を効果的に向上させる。
関連論文リスト
- Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Salience-Based Adaptive Masking: Revisiting Token Dynamics for Enhanced Pre-training [33.39585710223628]
適応型マスキングはトークンサリエンスを優先することでMIMアプローチの事前学習性能を向上させる。
本研究では,ImageNet-1Kデータセット上でのマスクによる事前学習において,最先端の手法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2024-04-12T08:38:51Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Enhancing Adversarial Attacks: The Similar Target Method [6.293148047652131]
敵対的な例は、ディープニューラルネットワークのアプリケーションに脅威をもたらす。
ディープニューラルネットワークは敵の例に対して脆弱であり、モデルのアプリケーションに脅威を与え、セキュリティ上の懸念を提起する。
我々はSimisal Target(ST)という類似の攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T14:16:36Z) - Masked Images Are Counterfactual Samples for Robust Fine-tuning [77.82348472169335]
微調整の深層学習モデルは、分布内(ID)性能と分布外(OOD)堅牢性の間のトレードオフにつながる可能性がある。
そこで本研究では,マスク付き画像を対物サンプルとして用いて,ファインチューニングモデルのロバスト性を向上させる新しいファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-03-06T11:51:28Z) - Frequency Domain Model Augmentation for Adversarial Attack [91.36850162147678]
ブラックボックス攻撃の場合、代用モデルと被害者モデルの間のギャップは通常大きい。
そこで本研究では,通常の訓練モデルと防衛モデルの両方に対して,より伝達可能な対角線モデルを構築するための新しいスペクトルシミュレーション攻撃を提案する。
論文 参考訳(メタデータ) (2022-07-12T08:26:21Z) - Improving Transferability of Adversarial Patches on Face Recognition
with Generative Models [43.51625789744288]
転写性に基づいた対向パッチを用いた顔認識モデルのロバスト性の評価を行った。
代用モデルと対象モデルの応答のギャップが劇的に減少し,転送性が向上したことを示す。
論文 参考訳(メタデータ) (2021-06-29T02:13:05Z) - Effective Unsupervised Domain Adaptation with Adversarially Trained
Language Models [54.569004548170824]
注意的なマスキング戦略は、マスキングされた言語モデルの知識ギャップを橋渡しできることを示す。
本稿では,これらのトークンを逆さまにマスキングすることで効果的なトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-10-05T01:49:47Z) - Perturbing Across the Feature Hierarchy to Improve Standard and Strict
Blackbox Attack Transferability [100.91186458516941]
我々は、ディープニューラルネットワーク(DNN)画像分類器の領域におけるブラックボックス転送に基づく敵攻撃脅威モデルを検討する。
我々は,多層摂動が可能なフレキシブルアタックフレームワークを設計し,最先端のターゲット転送性能を示す。
提案手法が既存の攻撃戦略より優れている理由を解析し,ブラックボックスモデルに対する限られたクエリが許された場合に,メソッドの拡張を示す。
論文 参考訳(メタデータ) (2020-04-29T16:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。