論文の概要: Sampling-based Fast Gradient Rescaling Method for Highly Transferable
Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2204.02887v1
- Date: Wed, 6 Apr 2022 15:12:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 14:01:32.428462
- Title: Sampling-based Fast Gradient Rescaling Method for Highly Transferable
Adversarial Attacks
- Title(参考訳): サンプリング型高速勾配再スケーリング法による高転送性逆襲攻撃
- Authors: Xu Han, Anmin Liu, Yifeng Xiong, Yanbo Fan, Kun He
- Abstract要約: 勾配ベースのアプローチは一般的に、プロセスの最後に摂動を生成するために$sign$関数を使用する。
そこで本研究では,S-FGRM(Saming-based Fast Gradient Rescaling Method)を提案する。
- 参考スコア(独自算出の注目度): 19.917677500613788
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have shown to be very vulnerable to adversarial examples
crafted by adding human-imperceptible perturbations to benign inputs. After
achieving impressive attack success rates in the white-box setting, more focus
is shifted to black-box attacks. In either case, the common gradient-based
approaches generally use the $sign$ function to generate perturbations at the
end of the process. However, only a few works pay attention to the limitation
of the $sign$ function. Deviation between the original gradient and the
generated noises may lead to inaccurate gradient update estimation and
suboptimal solutions for adversarial transferability, which is crucial for
black-box attacks. To address this issue, we propose a Sampling-based Fast
Gradient Rescaling Method (S-FGRM) to improve the transferability of the
crafted adversarial examples. Specifically, we use data rescaling to substitute
the inefficient $sign$ function in gradient-based attacks without extra
computational cost. We also propose a Depth First Sampling method to eliminate
the fluctuation of rescaling and stabilize the gradient update. Our method can
be used in any gradient-based optimizations and is extensible to be integrated
with various input transformation or ensemble methods for further improving the
adversarial transferability. Extensive experiments on the standard ImageNet
dataset show that our S-FGRM could significantly boost the transferability of
gradient-based attacks and outperform the state-of-the-art baselines.
- Abstract(参考訳): ディープニューラルネットワークは、人間の知覚可能な摂動を良質な入力に追加することで、敵対的な例に非常に脆弱であることが示されている。
ホワイトボックス設定で印象的な攻撃成功率を達成した後、より焦点がブラックボックス攻撃に移される。
いずれの場合も、一般的な勾配に基づくアプローチは、通常、$sign$関数を使用してプロセスの最後に摂動を生成する。
しかし、$sign$関数の制限に注意を払っているのはごくわずかである。
元の勾配と生成された雑音の偏差は、ブラックボックス攻撃に不可欠な逆転性に対する不正確な勾配更新推定と準最適解をもたらす可能性がある。
そこで本研究では,S-FGRM(Saming-based Fast Gradient Rescaling Method)を提案する。
具体的には,非効率な$sign$関数を計算コストを伴わない勾配攻撃で置き換えるためにデータ再スケーリングを用いる。
また,再スケーリングの変動を解消し,勾配更新を安定化するDepth First Smpling法を提案する。
本手法は任意の勾配に基づく最適化に使用することができ, 様々な入力変換やアンサンブル法と統合して, 対向変換性の向上を図ることができる。
標準のImageNetデータセットに対する大規模な実験により、我々のS-FGRMは勾配ベースの攻撃の転送可能性を大幅に向上し、最先端のベースラインより優れていることが示された。
関連論文リスト
- GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - Rethinking PGD Attack: Is Sign Function Necessary? [131.6894310945647]
本稿では,このような手話に基づく更新アルゴリズムが段階的攻撃性能にどのように影響するかを理論的に分析する。
本稿では,手話の使用を排除したRGDアルゴリズムを提案する。
提案したRGDアルゴリズムの有効性は実験で広く実証されている。
論文 参考訳(メタデータ) (2023-12-03T02:26:58Z) - Boosting Decision-Based Black-Box Adversarial Attack with Gradient
Priors [37.987522238329554]
グラディエントプライオリティ(DBA-GP)を用いた新たな決定型ブラックボックスアタックフレームワークを提案する。
DBA-GPは、データ依存の勾配事前と時間依存の勾配推定手順をシームレスに統合する。
実験により,提案手法が他の強いベースラインを著しく上回ることを示した。
論文 参考訳(メタデータ) (2023-10-29T15:05:39Z) - Sampling-based Fast Gradient Rescaling Method for Highly Transferable
Adversarial Attacks [18.05924632169541]
サンプリングに基づく高速勾配再スケーリング法(S-FGRM)を提案する。
具体的には、余分な計算コストを伴わずに手話関数を置換するためにデータ再スケーリングを用いる。
本手法は, 勾配に基づく攻撃の伝達可能性を大幅に向上させ, 最先端のベースラインより優れる可能性がある。
論文 参考訳(メタデータ) (2023-07-06T07:52:42Z) - Adaptive Perturbation for Adversarial Attack [50.77612889697216]
そこで本研究では,新たな逆例に対する勾配に基づく攻撃手法を提案する。
逆方向の摂動を発生させるために,スケーリング係数を用いた正確な勾配方向を用いる。
本手法は, 高い伝達性を示し, 最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-27T07:57:41Z) - Staircase Sign Method for Boosting Adversarial Attacks [123.19227129979943]
トランスファーベースの攻撃の敵の例を作るのは難しいし、研究のホットスポットだ。
そこで本研究では,この問題を緩和するための新しい階段サイン法(S$2$M)を提案する。
我々の手法は一般に転送ベースの攻撃と統合することができ、計算オーバーヘッドは無視できる。
論文 参考訳(メタデータ) (2021-04-20T02:31:55Z) - Enhancing the Transferability of Adversarial Attacks through Variance
Tuning [6.5328074334512]
反復勾配に基づく攻撃手法のクラスを強化するための分散チューニングと呼ばれる新しい方法を提案する。
標準のImageNetデータセットを用いた実験結果から,勾配に基づく敵攻撃の転送性を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2021-03-29T12:41:55Z) - Boosting Adversarial Transferability through Enhanced Momentum [50.248076722464184]
深層学習モデルは、人間の知覚できない摂動を良心的なイメージに加えることで、敵の例に弱い。
さまざまな運動量反復勾配に基づく方法が逆転性を改善するのに有効であることが示されている。
本稿では,逆伝達性をさらに高めるために,運動量反復勾配に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-19T03:10:32Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。