論文の概要: Improving Adversarial Transferability with Gradient Refining
- arxiv url: http://arxiv.org/abs/2105.04834v1
- Date: Tue, 11 May 2021 07:44:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 13:58:19.180840
- Title: Improving Adversarial Transferability with Gradient Refining
- Title(参考訳): グラディエント精錬による対向転写性の向上
- Authors: Guoqiu Wang, Huanqian Yan, Ying Guo, Xingxing Wei
- Abstract要約: 逆の例は、人間の知覚できない摂動を原画像に加えることによって作られる。
ディープニューラルネットワークは、原画像に人間に知覚不能な摂動を加えることによって作られる逆転例に対して脆弱である。
- 参考スコア(独自算出の注目度): 7.045900712659982
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks are vulnerable to adversarial examples, which are
crafted by adding human-imperceptible perturbations to original images. Most
existing adversarial attack methods achieve nearly 100% attack success rates
under the white-box setting, but only achieve relatively low attack success
rates under the black-box setting. To improve the transferability of
adversarial examples for the black-box setting, several methods have been
proposed, e.g., input diversity, translation-invariant attack, and
momentum-based attack. In this paper, we propose a method named Gradient
Refining, which can further improve the adversarial transferability by
correcting useless gradients introduced by input diversity through multiple
transformations. Our method is generally applicable to many gradient-based
attack methods combined with input diversity. Extensive experiments are
conducted on the ImageNet dataset and our method can achieve an average
transfer success rate of 82.07% for three different models under single-model
setting, which outperforms the other state-of-the-art methods by a large margin
of 6.0% averagely. And we have applied the proposed method to the competition
CVPR 2021 Unrestricted Adversarial Attacks on ImageNet organized by Alibaba and
won the second place in attack success rates among 1558 teams.
- Abstract(参考訳): ディープニューラルネットワークは、人間の知覚できない摂動を原画像に加えることで、敵の例に弱い。
既存の攻撃手法のほとんどはホワイトボックス設定で100%攻撃成功率を達成しているが、ブラックボックス設定では攻撃成功率が比較的低いだけである。
ブラックボックス設定の逆例の転送性を改善するため、入力多様性、翻訳不変攻撃、運動量に基づく攻撃など、いくつかの手法が提案されている。
本稿では,複数の変換を通じて入力の多様性によって生じる無駄な勾配を補正することにより,逆転性を改善するグラディエント精錬法を提案する。
本手法は,入力多様性と組み合わせた多くの勾配攻撃法に適用可能である。
画像Netデータセットを用いて大規模な実験を行い, 単一モデル設定下での3モデルの平均転送成功率は平均82.07%であり, 平均6.0%の差で他の最先端手法よりも優れていた。
また,提案手法を,Alibabaが組織したImageNet上のCVPR 2021 Unrestricted Adversarial Attacksに適用し,攻撃成功率1558チームで2位となった。
関連論文リスト
- Boosting Adversarial Attacks by Leveraging Decision Boundary Information [68.07365511533675]
異なるモデルの勾配は、元の位置よりも決定境界に類似している。
転送性向上のための境界フィッティング攻撃を提案する。
本手法では, 平均攻撃成功率は58.2%であり, 他の最先端のトランスファーベース攻撃よりも10.8%高い。
論文 参考訳(メタデータ) (2023-03-10T05:54:11Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Query-Efficient Black-box Adversarial Attacks Guided by a Transfer-based
Prior [50.393092185611536]
対象モデルの勾配にアクセスできることなく、敵が敵の例を作らなければならないブラックボックスの敵設定を考える。
従来の手法では、代用ホワイトボックスモデルの転送勾配を用いたり、モデルクエリのフィードバックに基づいて真の勾配を近似しようとした。
偏りサンプリングと勾配平均化に基づく2つの事前誘導型ランダム勾配フリー(PRGF)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-13T04:06:27Z) - Adaptive Perturbation for Adversarial Attack [50.77612889697216]
そこで本研究では,新たな逆例に対する勾配に基づく攻撃手法を提案する。
逆方向の摂動を発生させるために,スケーリング係数を用いた正確な勾配方向を用いる。
本手法は, 高い伝達性を示し, 最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-27T07:57:41Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z) - Enhancing the Transferability of Adversarial Attacks through Variance
Tuning [6.5328074334512]
反復勾配に基づく攻撃手法のクラスを強化するための分散チューニングと呼ばれる新しい方法を提案する。
標準のImageNetデータセットを用いた実験結果から,勾配に基づく敵攻撃の転送性を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2021-03-29T12:41:55Z) - Boosting Adversarial Transferability through Enhanced Momentum [50.248076722464184]
深層学習モデルは、人間の知覚できない摂動を良心的なイメージに加えることで、敵の例に弱い。
さまざまな運動量反復勾配に基づく方法が逆転性を改善するのに有効であることが示されている。
本稿では,逆伝達性をさらに高めるために,運動量反復勾配に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-19T03:10:32Z) - Random Transformation of Image Brightness for Adversarial Attack [5.405413975396116]
逆の例は、オリジナルの画像に小さな人間の知覚できないものを加えることで作られる。
ディープニューラルネットワークは、オリジナルの画像に小さな人間の知覚できないものを加えることで構築される敵の例に対して脆弱である。
本稿では,高速勾配符号法と統合可能な,この現象に基づく逆例生成手法を提案する。
本手法は,データ拡張に基づく他の攻撃方法よりもブラックボックス攻撃の成功率が高い。
論文 参考訳(メタデータ) (2021-01-12T07:00:04Z) - Improving the Transferability of Adversarial Examples with the Adam
Optimizer [11.210560572849383]
本研究は、改良されたアダム勾配降下法と反復勾配に基づく攻撃法を組み合わせたものである。
ImageNetの実験により,提案手法は既存の反復法よりも攻撃成功率が高いことが示された。
我々の最高のブラックボックス攻撃は、通常訓練されたネットワークで81.9%、敵訓練されたネットワークで38.7%の成功率を達成した。
論文 参考訳(メタデータ) (2020-12-01T15:18:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。