論文の概要: Improving the Transferability of Adversarial Examples via Direction
Tuning
- arxiv url: http://arxiv.org/abs/2303.15109v1
- Date: Mon, 27 Mar 2023 11:26:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 15:41:17.210906
- Title: Improving the Transferability of Adversarial Examples via Direction
Tuning
- Title(参考訳): 方向調整による逆例の転送性の向上
- Authors: Xiangyuan Yang, Jie Lin, Hanlin Zhang, Xinyu Yang, Peng Zhao
- Abstract要約: 移動型対人攻撃では、敵対例は代理モデルによってのみ生成され、犠牲者モデルにおいて効果的な摂動が達成される。
新たなトランスファーベースアタック、すなわち方向調整アタックが提案され、大きなステップ長の更新偏差を減少させる。
さらに,ネットワークプルーニング手法を提案し,決定境界を円滑にすることで,更新振動を低減し,生成した逆数例の転送性を向上させる。
- 参考スコア(独自算出の注目度): 18.880398046794138
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In the transfer-based adversarial attacks, adversarial examples are only
generated by the surrogate models and achieve effective perturbation in the
victim models. Although considerable efforts have been developed on improving
the transferability of adversarial examples generated by transfer-based
adversarial attacks, our investigation found that, the big deviation between
the actual and steepest update directions of the current transfer-based
adversarial attacks is caused by the large update step length, resulting in the
generated adversarial examples can not converge well. However, directly
reducing the update step length will lead to serious update oscillation so that
the generated adversarial examples also can not achieve great transferability
to the victim models. To address these issues, a novel transfer-based attack,
namely direction tuning attack, is proposed to not only decrease the update
deviation in the large step length, but also mitigate the update oscillation in
the small sampling step length, thereby making the generated adversarial
examples converge well to achieve great transferability on victim models. In
addition, a network pruning method is proposed to smooth the decision boundary,
thereby further decreasing the update oscillation and enhancing the
transferability of the generated adversarial examples. The experiment results
on ImageNet demonstrate that the average attack success rate (ASR) of the
adversarial examples generated by our method can be improved from 87.9\% to
94.5\% on five victim models without defenses, and from 69.1\% to 76.2\% on
eight advanced defense methods, in comparison with that of latest
gradient-based attacks.
- Abstract(参考訳): 移動型対人攻撃では、敵対例は代理モデルによってのみ生成され、犠牲者モデルにおいて効果的な摂動が達成される。
本研究は,移動型対向攻撃によって生じる対向例の転送性向上に多大な努力を払っているが,現在の移動型対向攻撃の実際の更新方向と急激な更新方向の差は,大きな更新ステップ長によって引き起こされるため,生成対向例は十分に収束しないことがわかった。
しかし、更新ステップ長の直接削減は深刻な更新発振を引き起こすため、生成した敵の例も犠牲者モデルへの大きな転送性を得ることができない。
これらの問題に対処するために,新しい転送ベース攻撃,すなわち方向チューニング攻撃を提案し,大きなステップ長の更新偏差を減少させるだけでなく,小さなサンプリングステップ長の更新振動を緩和し,生成された敵対的サンプルをうまく収束させ,被害者モデルにおける大きな転送可能性を達成する。
さらに,ネットワークプルーニング手法を提案し,決定境界を円滑にすることで,更新振動を低減し,生成した逆数例の転送性を向上させる。
ImageNetにおける実験結果から,本手法が生成した敵の攻撃成功率(ASR)は,防御のない5つの犠牲者モデルでは87.9\%から94.5\%に向上し,最新の勾配攻撃と比較して8つの先進防衛手法では69.1\%から76.2\%に改善できることが示された。
関連論文リスト
- Generating Adversarial Examples with Better Transferability via Masking
Unimportant Parameters of Surrogate Model [6.737574282249396]
非重要マスキングパラメータ(MUP)を用いた転送攻撃における敵例の転送可能性の向上を提案する。
MUPのキーとなるアイデアは、事前訓練されたサロゲートモデルを洗練して、転送ベースの攻撃を強化することである。
論文 参考訳(メタデータ) (2023-04-14T03:06:43Z) - Fuzziness-tuned: Improving the Transferability of Adversarial Examples [18.880398046794138]
敵対的な例は、ディープニューラルネットワークにおけるトレーニングモデルの堅牢性を高めるために広く使用されている。
代理モデルに対するトランスファーベース攻撃の攻撃成功率は、低攻撃強度下の犠牲者モデルよりもはるかに高い。
ファジィ領域から効果的に外れるようにファジィ調整法が提案されている。
論文 参考訳(メタデータ) (2023-03-17T16:00:18Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Improving Adversarial Transferability with Scheduled Step Size and Dual
Example [33.00528131208799]
反復型高速勾配符号法により生じる逆例の転送性は,反復数の増加に伴って低下傾向を示すことを示す。
本稿では,スケジューリングステップサイズとデュアルサンプル(SD)を用いて,良性サンプル近傍の対角情報を完全に活用する新しい戦略を提案する。
提案手法は,既存の対向攻撃手法と容易に統合でき,対向移動性が向上する。
論文 参考訳(メタデータ) (2023-01-30T15:13:46Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Direction-Aggregated Attack for Transferable Adversarial Examples [10.208465711975242]
深層ニューラルネットワークは、入力に知覚不可能な変化を課すことによって作られる敵の例に弱い。
逆例は、モデルとそのパラメータが利用可能なホワイトボックス設定で最も成功した。
我々は,移動可能な攻撃事例を提供する方向集約型攻撃を提案する。
論文 参考訳(メタデータ) (2021-04-19T09:54:56Z) - Boosting Adversarial Transferability through Enhanced Momentum [50.248076722464184]
深層学習モデルは、人間の知覚できない摂動を良心的なイメージに加えることで、敵の例に弱い。
さまざまな運動量反復勾配に基づく方法が逆転性を改善するのに有効であることが示されている。
本稿では,逆伝達性をさらに高めるために,運動量反復勾配に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-19T03:10:32Z) - Making Adversarial Examples More Transferable and Indistinguishable [7.885043234081768]
本稿では,高い転送性を有する不明瞭な逆例を生成する手法を提案する。
我々の最も優れた転送ベース攻撃NI-TI-DI-AITMは、89.3%の平均的な成功率で6つの古典的な防衛モデルを騙すことができる。
論文 参考訳(メタデータ) (2020-07-08T01:12:56Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。