論文の概要: Boost Adversarial Transferability by Uniform Scale and Mix Mask Method
- arxiv url: http://arxiv.org/abs/2311.12051v1
- Date: Sat, 18 Nov 2023 10:17:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 03:51:34.789286
- Title: Boost Adversarial Transferability by Uniform Scale and Mix Mask Method
- Title(参考訳): 一様スケールとミックスマスク法による逆移動性の向上
- Authors: Tao Wang, Zijian Ying, Qianmu Li, zhichao Lian
- Abstract要約: 代理モデルから生成された敵対的な例は、しばしば他のブラックボックスモデルを欺く能力を持っている。
本稿では,一様スケールと混合マスク法 (US-MM) というフレームワークを提案する。
US-MMは、最先端の手法と比較して平均7%の転送攻撃成功率を達成する。
- 参考スコア(独自算出の注目度): 10.604083938124463
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples generated from surrogate models often possess the
ability to deceive other black-box models, a property known as transferability.
Recent research has focused on enhancing adversarial transferability, with
input transformation being one of the most effective approaches. However,
existing input transformation methods suffer from two issues. Firstly, certain
methods, such as the Scale-Invariant Method, employ exponentially decreasing
scale invariant parameters that decrease the adaptability in generating
effective adversarial examples across multiple scales. Secondly, most mixup
methods only linearly combine candidate images with the source image, leading
to reduced features blending effectiveness. To address these challenges, we
propose a framework called Uniform Scale and Mix Mask Method (US-MM) for
adversarial example generation. The Uniform Scale approach explores the upper
and lower boundaries of perturbation with a linear factor, minimizing the
negative impact of scale copies. The Mix Mask method introduces masks into the
mixing process in a nonlinear manner, significantly improving the effectiveness
of mixing strategies. Ablation experiments are conducted to validate the
effectiveness of each component in US-MM and explore the effect of
hyper-parameters. Empirical evaluations on standard ImageNet datasets
demonstrate that US-MM achieves an average of 7% better transfer attack success
rate compared to state-of-the-art methods.
- Abstract(参考訳): 代理モデルから生成される敵対的な例は、しばしば他のブラックボックスモデルを欺く能力を持っている。
近年の研究では、入力変換が最も効果的なアプローチの1つである対向移動性の向上に焦点が当てられている。
しかし、既存の入力変換手法には2つの問題がある。
第一に、スケール不変法(Scale-Invariant Method)のような特定の手法は指数関数的に減少するスケール不変パラメータを用い、複数のスケールで効果的な逆例を生成する適応性を低下させる。
第2に、ほとんどの混合手法は、候補画像とソース画像とを線形に結合するだけで、特徴の混合効果が低下する。
これらの課題に対処するために,一様スケールと混合マスク法 (US-MM) というフレームワークを提案する。
均一スケールアプローチでは、線形係数による摂動の上下境界を探索し、スケールコピーの負の影響を最小限に抑える。
混合マスク法は, マスクを非線形に混合工程に導入し, 混合戦略の有効性を著しく向上させた。
US-MMにおける各成分の有効性を検証するためのアブレーション実験を行い,ハイパーパラメータの効果について検討した。
標準的なImageNetデータセットに対する実証的な評価は、US-MMが最先端の手法と比較して平均7%の転送攻撃成功率を達成することを示した。
関連論文リスト
- Boosting Imperceptibility of Stable Diffusion-based Adversarial Examples Generation with Momentum [13.305800254250789]
我々は,SD-MIAE(SD-MIAE)という新しいフレームワークを提案する。
視覚的不受容性を保ち、元のクラスラベルとのセマンティックな類似性を保ちながら、ニューラルネットワーク分類器を効果的に誤解させることができる敵の例を生成する。
実験の結果,SD-MIAEは79%の誤分類率を示し,最先端法よりも35%向上した。
論文 参考訳(メタデータ) (2024-10-17T01:22:11Z) - Improving Transferable Targeted Adversarial Attack via Normalized Logit Calibration and Truncated Feature Mixing [26.159434438078968]
損失・特徴面から目標転送可能性を改善するための2つの手法を提案する。
以前のアプローチでは、ロジットキャリブレーションは主にターゲットクラスとサンプル間の未ターゲットクラスの間のロジットマージンに焦点を当てていた。
本稿では,ロジットマージンと標準偏差を共同で検討する正規化ロジット校正手法を提案する。
論文 参考訳(メタデータ) (2024-05-10T09:13:57Z) - GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - Rethinking Mixup for Improving the Adversarial Transferability [6.2867306093287905]
我々は、MIST(Mixing the Image but Separating the gradienT)と呼ばれる入力変換に基づく新たな攻撃を提案する。
MISTは、入力画像とランダムにシフトした画像とをランダムに混合し、混合画像毎に各損失項目の勾配を分離する。
ImageNetデータセットの実験では、MISTが既存のSOTA入力変換ベースの攻撃より優れていることが示されている。
論文 参考訳(メタデータ) (2023-11-28T03:10:44Z) - AMPLIFY:Attention-based Mixup for Performance Improvement and Label Smoothing in Transformer [2.3072402651280517]
AMPLIFYはTransformer自体のアテンション機構を使用して、元のサンプルのノイズや異常値が予測結果に与える影響を低減する。
実験の結果,AMPLIFYは計算資源のコストが小さく,テキスト分類作業において他の混合手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-09-22T08:02:45Z) - Boosting Adversarial Transferability with Learnable Patch-wise Masks [16.46210182214551]
敵の例は、異なるモデル間での転送可能性のため、セキュリティクリティカルなアプリケーションで広く注目を集めている。
本稿では、モデル固有の識別領域が、ソースモデルに過度に適合し、ターゲットモデルへの転送可能性を低減する重要な要因であると論じる。
これらの領域を正確にローカライズするために,マスクの自動最適化のための学習可能なアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-28T05:32:22Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z) - Deblurring via Stochastic Refinement [85.42730934561101]
条件付き拡散モデルに基づくブラインドデブロアリングのための代替フレームワークを提案する。
提案手法は,PSNRなどの歪み指標の点で競合する。
論文 参考訳(メタデータ) (2021-12-05T04:36:09Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z) - Staircase Sign Method for Boosting Adversarial Attacks [123.19227129979943]
トランスファーベースの攻撃の敵の例を作るのは難しいし、研究のホットスポットだ。
そこで本研究では,この問題を緩和するための新しい階段サイン法(S$2$M)を提案する。
我々の手法は一般に転送ベースの攻撃と統合することができ、計算オーバーヘッドは無視できる。
論文 参考訳(メタデータ) (2021-04-20T02:31:55Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。