論文の概要: Staircase Sign Method for Boosting Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2104.09722v1
- Date: Tue, 20 Apr 2021 02:31:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-21 13:41:36.531098
- Title: Staircase Sign Method for Boosting Adversarial Attacks
- Title(参考訳): 対向攻撃を促進する階段標識方法
- Authors: Lianli Gao, Qilong Zhang, Xiaosu Zhu, Jingkuan Song and Heng Tao Shen
- Abstract要約: トランスファーベースの攻撃の敵の例を作るのは難しいし、研究のホットスポットだ。
そこで本研究では,この問題を緩和するための新しい階段サイン法(S$2$M)を提案する。
我々の手法は一般に転送ベースの攻撃と統合することができ、計算オーバーヘッドは無視できる。
- 参考スコア(独自算出の注目度): 123.19227129979943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Crafting adversarial examples for the transfer-based attack is challenging
and remains a research hot spot. Currently, such attack methods are based on
the hypothesis that the substitute model and the victim's model learn similar
decision boundaries, and they conventionally apply Sign Method (SM) to
manipulate the gradient as the resultant perturbation. Although SM is
efficient, it only extracts the sign of gradient units but ignores their value
difference, which inevitably leads to a serious deviation. Therefore, we
propose a novel Staircase Sign Method (S$^2$M) to alleviate this issue, thus
boosting transfer-based attacks. Technically, our method heuristically divides
the gradient sign into several segments according to the values of the gradient
units, and then assigns each segment with a staircase weight for better
crafting adversarial perturbation. As a result, our adversarial examples
perform better in both white-box and black-box manner without being more
visible. Since S$^2$M just manipulates the resultant gradient, our method can
be generally integrated into any transfer-based attacks, and the computational
overhead is negligible. Extensive experiments on the ImageNet dataset
demonstrate the effectiveness of our proposed methods, which significantly
improve the transferability (i.e., on average, \textbf{5.1\%} for normally
trained models and \textbf{11.2\%} for adversarially trained defenses). Our
code is available at:
\url{https://github.com/qilong-zhang/Staircase-sign-method}.
- Abstract(参考訳): トランスファーベースの攻撃の敵の例を作るのは難しいし、研究のホットスポットだ。
現在、このような攻撃法は、代用モデルと被害者のモデルが同様の決定境界を学習する仮説に基づいており、従来はシグネチャ法(SM)を適用して、結果として生じる摂動として勾配を操作する。
SMは効率的であるが、勾配単位の符号のみを抽出するが、その値差を無視し、必然的に重大な偏差をもたらす。
そこで本研究では,この問題を緩和し,転送ベースの攻撃を増強する新たなStaircase Sign Method (S$^2$M)を提案する。
技術的には, 勾配単位の値に応じて, 勾配符号を複数のセグメントにヒューリスティックに分割し, 各セグメントに階段重みを割り当て, 逆摂動を良くする。
結果として、私たちの敵対的な例は、ホワイトボックスとブラックボックスの両方で、より目立たずにパフォーマンスが向上します。
S$2$Mは結果の勾配を演算するだけなので、我々の手法は一般的に転送ベースの攻撃と統合することができ、計算オーバーヘッドは無視できる。
ImageNetデータセットの広範囲な実験により,提案手法の有効性が実証され,トランスファービリティが大幅に向上した(通常訓練されたモデルでは \textbf{5.1\%} ,敵訓練されたディフェンスでは \textbf{11.2\%} )。
私たちのコードは、 \url{https://github.com/qilong-zhang/staircase-sign-method} で利用可能です。
関連論文リスト
- Hard No-Box Adversarial Attack on Skeleton-Based Human Action
Recognition with Skeleton-Motion-Informed Gradient [14.392853911242923]
骨格に基づくヒトの行動認識法は、敵の攻撃に弱いことが示されている。
本稿では,攻撃者が被害者モデルや訓練データやラベルにアクセスできない新たな攻撃課題について考察する。
具体的には,スケルトン運動インフォームド・グラデーション(SMI)と呼ばれる攻撃の新たな勾配を計算するために,敵の損失を定義する。
論文 参考訳(メタデータ) (2023-08-10T16:34:20Z) - Sampling-based Fast Gradient Rescaling Method for Highly Transferable
Adversarial Attacks [18.05924632169541]
サンプリングに基づく高速勾配再スケーリング法(S-FGRM)を提案する。
具体的には、余分な計算コストを伴わずに手話関数を置換するためにデータ再スケーリングを用いる。
本手法は, 勾配に基づく攻撃の伝達可能性を大幅に向上させ, 最先端のベースラインより優れる可能性がある。
論文 参考訳(メタデータ) (2023-07-06T07:52:42Z) - Boosting Adversarial Attacks by Leveraging Decision Boundary Information [68.07365511533675]
異なるモデルの勾配は、元の位置よりも決定境界に類似している。
転送性向上のための境界フィッティング攻撃を提案する。
本手法では, 平均攻撃成功率は58.2%であり, 他の最先端のトランスファーベース攻撃よりも10.8%高い。
論文 参考訳(メタデータ) (2023-03-10T05:54:11Z) - Sampling-based Fast Gradient Rescaling Method for Highly Transferable
Adversarial Attacks [19.917677500613788]
勾配ベースのアプローチは一般的に、プロセスの最後に摂動を生成するために$sign$関数を使用する。
そこで本研究では,S-FGRM(Saming-based Fast Gradient Rescaling Method)を提案する。
論文 参考訳(メタデータ) (2022-04-06T15:12:20Z) - Query-Efficient Black-box Adversarial Attacks Guided by a Transfer-based
Prior [50.393092185611536]
対象モデルの勾配にアクセスできることなく、敵が敵の例を作らなければならないブラックボックスの敵設定を考える。
従来の手法では、代用ホワイトボックスモデルの転送勾配を用いたり、モデルクエリのフィードバックに基づいて真の勾配を近似しようとした。
偏りサンプリングと勾配平均化に基づく2つの事前誘導型ランダム勾配フリー(PRGF)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-13T04:06:27Z) - Adversarially Robust Classification by Conditional Generative Model
Inversion [4.913248451323163]
本稿では,攻撃の事前知識を仮定することなく,勾配を難読化せず,構造的に堅牢な分類モデルを提案する。
提案手法は,未成熟な自然画像に基づいて訓練された条件生成器を「反転」する最適化問題である。
我々のモデルはブラックボックス攻撃に対して非常に堅牢であり、ホワイトボックス攻撃に対するロバスト性を改善したことを実証する。
論文 参考訳(メタデータ) (2022-01-12T23:11:16Z) - Adaptive Perturbation for Adversarial Attack [50.77612889697216]
そこで本研究では,新たな逆例に対する勾配に基づく攻撃手法を提案する。
逆方向の摂動を発生させるために,スケーリング係数を用いた正確な勾配方向を用いる。
本手法は, 高い伝達性を示し, 最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-27T07:57:41Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z) - Improving the Transferability of Adversarial Examples with New Iteration
Framework and Input Dropout [8.24029748310858]
本稿では,反復ステップサイズ,摂動数,最大イテレーションの関係を再定義する,新たな勾配反復フレームワークを提案する。
本枠組みでは,DI-TI-MIMの攻撃成功率を容易に向上させる。
さらに,入力ドロップアウトに基づく勾配反復攻撃手法を提案する。
論文 参考訳(メタデータ) (2021-06-03T06:36:38Z) - Transferable Sparse Adversarial Attack [62.134905824604104]
オーバーフィッティング問題を緩和するジェネレータアーキテクチャを導入し、転送可能なスパース対逆例を効率的に作成する。
提案手法は,他の最適化手法よりも700$times$高速な推論速度を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:44:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。