論文の概要: GNP Attack: Transferable Adversarial Examples via Gradient Norm Penalty
- arxiv url: http://arxiv.org/abs/2307.04099v1
- Date: Sun, 9 Jul 2023 05:21:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 15:29:42.636219
- Title: GNP Attack: Transferable Adversarial Examples via Gradient Norm Penalty
- Title(参考訳): gnpアタック:勾配ノルムペナルティによる転送可能な逆行例
- Authors: Tao Wu, Tie Luo, Donald C. Wunsch
- Abstract要約: 良好な転送性を持つ敵例(AE)は、多様なターゲットモデルに対する実用的なブラックボックス攻撃を可能にする。
GNP(Gradient Norm Penalty)を用いた新しいAE転送性向上手法を提案する。
11種類の最先端のディープラーニングモデルと6つの高度な防御手法を攻撃することにより、GNPは高い転送性を持つAEを生成するのに非常に有効であることを示す。
- 参考スコア(独自算出の注目度): 14.82389560064876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples (AE) with good transferability enable practical
black-box attacks on diverse target models, where insider knowledge about the
target models is not required. Previous methods often generate AE with no or
very limited transferability; that is, they easily overfit to the particular
architecture and feature representation of the source, white-box model and the
generated AE barely work for target, black-box models. In this paper, we
propose a novel approach to enhance AE transferability using Gradient Norm
Penalty (GNP). It drives the loss function optimization procedure to converge
to a flat region of local optima in the loss landscape. By attacking 11
state-of-the-art (SOTA) deep learning models and 6 advanced defense methods, we
empirically show that GNP is very effective in generating AE with high
transferability. We also demonstrate that it is very flexible in that it can be
easily integrated with other gradient based methods for stronger transfer-based
attacks.
- Abstract(参考訳): 転送性の良い逆例(ae)は、ターゲットモデルに関する内部知識が不要な多様なターゲットモデルに対して、実用的なブラックボックス攻撃を可能にする。
つまり、ソースのホワイトボックスモデルの特定のアーキテクチャや特徴表現に容易に適合し、生成されたAEはターゲットのブラックボックスモデルではほとんど機能しない。
本稿では,GNP(Gradient Norm Penalty)を用いたAE転送性向上手法を提案する。
損失関数最適化手順を駆動し、損失ランドスケープ内の局所最適の平坦な領域に収束する。
11種類の最先端(SOTA)深層学習モデルと6つの先進防衛手法を攻撃することにより、GNPは高い伝達性を持つAEを生成するのに非常に有効であることを示す。
また,より強固な転送ベースの攻撃に対して,他の勾配ベース手法と容易に統合できるという点で,非常に柔軟であることを示す。
関連論文リスト
- Enhancing Transferability of Adversarial Attacks with GE-AdvGAN+: A Comprehensive Framework for Gradient Editing [12.131163373757383]
転送可能な敵攻撃は、ディープニューラルネットワークに重大な脅威をもたらす。
本稿では、GE-AdvGAN+という、勾配編集に基づく転送可能な攻撃のための新しいフレームワークを提案する。
我々のフレームワークは、ほとんどすべての主流攻撃手法を統合し、転送可能性を高めながら、計算資源の消費を大幅に削減する。
論文 参考訳(メタデータ) (2024-08-22T18:26:31Z) - Enhancing Adversarial Transferability with Adversarial Weight Tuning [36.09966860069978]
敵対的な例(AE)は、人間の観察者に対して良心を抱きながらモデルを誤解させた。
AWTは、勾配に基づく攻撃法とモデルに基づく攻撃法を組み合わせて、AEの転送可能性を高めるデータフリーチューニング手法である。
論文 参考訳(メタデータ) (2024-08-18T13:31:26Z) - Enhancing targeted transferability via feature space fine-tuning [21.131915084053894]
アドリラルな例(AE)は、プライバシ保護と堅牢なニューラルネットワークを刺激する可能性のために、広く研究されている。
既存の単純な反復攻撃によって作られたAEを微調整し、未知のモデル間で転送できるようにする。
論文 参考訳(メタデータ) (2024-01-05T09:46:42Z) - MaskBlock: Transferable Adversarial Examples with Bayes Approach [35.237713022434235]
多様なモデルにまたがる敵の例の移動性は、ブラックボックスの敵攻撃において重要である。
我々は,バニラブラックボックスが最大推定(MLE)問題を解くことでAEを攻撃していることを示す。
本研究では,工芸品の転送可能なAEを,限られたデータで結果の一般化を促進する効果的な手法である後続確率推定問題の最大化として再定式化する。
論文 参考訳(メタデータ) (2022-08-13T01:20:39Z) - Query-Efficient Black-box Adversarial Attacks Guided by a Transfer-based
Prior [50.393092185611536]
対象モデルの勾配にアクセスできることなく、敵が敵の例を作らなければならないブラックボックスの敵設定を考える。
従来の手法では、代用ホワイトボックスモデルの転送勾配を用いたり、モデルクエリのフィードバックに基づいて真の勾配を近似しようとした。
偏りサンプリングと勾配平均化に基づく2つの事前誘導型ランダム勾配フリー(PRGF)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-13T04:06:27Z) - DI-AA: An Interpretable White-box Attack for Fooling Deep Neural
Networks [6.704751710867746]
ディープニューラルネットワーク(DNN)に対するAE攻撃は、ブラックボックスAE攻撃よりも強力な破壊能力を持つ。
本稿では,解釈可能なWhite-box AE攻撃手法であるDI-AAを提案する。
論文 参考訳(メタデータ) (2021-10-14T12:15:58Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - Decision-based Universal Adversarial Attack [55.76371274622313]
ブラックボックス設定では、現在の普遍的敵攻撃法は代用モデルを用いて摂動を生成する。
効率的な決定に基づくユニバーサルアタック(DUAttack)を提案する。
DUAttackの有効性は、他の最先端攻撃との比較によって検証される。
論文 参考訳(メタデータ) (2020-09-15T12:49:03Z) - Towards Query-Efficient Black-Box Adversary with Zeroth-Order Natural
Gradient Descent [92.4348499398224]
ブラックボックスの敵攻撃手法は、実用性や単純さから特に注目されている。
敵攻撃を設計するためのゼロ階自然勾配降下法(ZO-NGD)を提案する。
ZO-NGDは、最先端攻撃法と比較して、モデルクエリの複雑さが大幅に低い。
論文 参考訳(メタデータ) (2020-02-18T21:48:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。