論文の概要: Going Far Boosts Attack Transferability, but Do Not Do It
- arxiv url: http://arxiv.org/abs/2102.10343v1
- Date: Sat, 20 Feb 2021 13:19:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-23 14:42:03.484958
- Title: Going Far Boosts Attack Transferability, but Do Not Do It
- Title(参考訳): Going Farがアタックトランスファービリティを向上するが、そうはならない
- Authors: Sizhe Chen, Qinghua Tao, Zhixing Ye, Xiaolin Huang
- Abstract要約: 7つの最適化アルゴリズム,4つのサロゲート,9つのブラックボックスモデルに関する包括的実験により,攻撃伝達性に対する最適化の影響を検討した。
最適化アルゴリズムからのAEsの様々な転送性は、元のサンプルから得られたRoot Mean Square Error(RMSE)と強く関係している。
LARAは転送可能性を大幅に20%改善するが、DNNの脆弱性を利用するには不十分である。
- 参考スコア(独自算出の注目度): 16.901240544106948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) could be easily fooled by Adversarial Examples
(AEs) with an imperceptible difference to original ones in human eyes. Also,
the AEs from attacking one surrogate DNN tend to cheat other black-box DNNs as
well, i.e., the attack transferability. Existing works reveal that adopting
certain optimization algorithms in attack improves transferability, but the
underlying reasons have not been thoroughly studied. In this paper, we
investigate the impacts of optimization on attack transferability by
comprehensive experiments concerning 7 optimization algorithms, 4 surrogates,
and 9 black-box models. Through the thorough empirical analysis from three
perspectives, we surprisingly find that the varied transferability of AEs from
optimization algorithms is strongly related to the corresponding Root Mean
Square Error (RMSE) from their original samples. On such a basis, one could
simply approach high transferability by attacking until RMSE decreases, which
motives us to propose a LArge RMSE Attack (LARA). Although LARA significantly
improves transferability by 20%, it is insufficient to exploit the
vulnerability of DNNs, leading to a natural urge that the strength of all
attacks should be measured by both the widely used $\ell_\infty$ bound and the
RMSE addressed in this paper, so that tricky enhancement of transferability
would be avoided.
- Abstract(参考訳): ディープニューラルネットワーク(Deep Neural Networks、DNN)は、人間の目の元のものと知覚不能な違いを持つ敵の例(AE)によって容易にだまされ得る。
また、AEは1つの代理DNNを攻撃しないため、他のブラックボックスDNNも騙す傾向にある。
既存の研究によると、特定の最適化アルゴリズムを攻撃に適用することで転送性が向上するが、根本的な理由は十分に研究されていない。
本稿では,7つの最適化アルゴリズム,4つのサロゲート,9つのブラックボックスモデルに関する包括的な実験を行い,攻撃伝達性に対する最適化の影響を検討する。
3つの観点からの徹底的な経験的分析を通して、最適化アルゴリズムからのAEsの様々な転送性は、元のサンプルから対応するRoot Mean Square Error(RMSE)と強く関連していることがわかった。
このような理由で、RMSEが減少するまで攻撃することで高転送性にアプローチするだけで、LArge RMSE攻撃(LARA)を提案します。
LARAは転送可能性を大幅に20%改善するが、DNNの脆弱性を悪用するには不十分であり、この論文で広く使われている$\ell_\infty$boundとRMSEの両方で全ての攻撃の強度を測定するべきであるという自然な衝動を招き、転送可能性のトリッキーな向上を回避することができる。
関連論文リスト
- LRS: Enhancing Adversarial Transferability through Lipschitz Regularized
Surrogate [8.248964912483912]
敵の例の転送性は、転送ベースのブラックボックス敵攻撃において重要である。
転送ベースブラックボックス攻撃に対するLipschitz Regularized Surrogate (LRS)を提案する。
我々は、最先端のディープニューラルネットワークとディフェンスモデルを攻撃することで、提案したLSSアプローチを評価する。
論文 参考訳(メタデータ) (2023-12-20T15:37:50Z) - Transferable Attack for Semantic Segmentation [59.17710830038692]
敵が攻撃し、ソースモデルから生成された敵の例がターゲットモデルを攻撃するのに失敗するのを観察します。
本研究では, セマンティックセグメンテーションのためのアンサンブルアタックを提案する。
論文 参考訳(メタデータ) (2023-07-31T11:05:55Z) - Reliable Evaluation of Adversarial Transferability [17.112253436250946]
小さな敵対的摂動を持つ敵対的例(AE)は、ディープニューラルネットワーク(DNN)を誤った予測に導出する可能性がある。
我々は,4種類のニューラルネットワークから18種類の人気モデルを検証し,代表的転送可能性向上攻撃法を再評価する。
我々の再評価の結果、逆転性はしばしば過大評価され、すべての人気モデルに変換できる単一のAEは存在しないことが判明した。
論文 参考訳(メタデータ) (2023-06-14T15:17:51Z) - Boosting Adversarial Transferability via Fusing Logits of Top-1
Decomposed Feature [36.78292952798531]
本稿では,Singular Value Decomposition(SVD)に基づく特徴レベル攻撃法を提案する。
提案手法は,中間層特徴量より大きい特異値に付随する固有ベクトルがより優れた一般化と注意特性を示すという発見に着想を得たものである。
論文 参考訳(メタデータ) (2023-05-02T12:27:44Z) - Logit Margin Matters: Improving Transferable Targeted Adversarial Attack
by Logit Calibration [85.71545080119026]
クロスエントロピー(CE)損失関数は、伝達可能な標的対向例を学習するには不十分である。
本稿では,ロジットを温度係数と適応マージンでダウンスケールすることで,ロジットのキャリブレーションを簡易かつ効果的に行う2つの手法を提案する。
ImageNetデータセットを用いて実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-03-07T06:42:52Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Transfer Attacks Revisited: A Large-Scale Empirical Study in Real
Computer Vision Settings [64.37621685052571]
我々は,主要なクラウドベースのMLプラットフォームに対する転送攻撃について,最初の系統的実証的研究を行った。
この研究は、既存のものと矛盾しない多くの興味深い発見につながっている。
この作業は、一般的なMLプラットフォームの脆弱性に光を当て、いくつかの有望な研究方向を指し示している、と私たちは信じています。
論文 参考訳(メタデータ) (2022-04-07T12:16:24Z) - QueryNet: An Efficient Attack Framework with Surrogates Carrying
Multiple Identities [16.901240544106948]
ディープニューラルネットワーク(DNN)は敵の攻撃に対して脆弱であると認識されている。
ブラックボックス攻撃は、高い成功率を達成するために、被害者に対して広範囲なクエリを必要とする。
クエリ効率では、被害者の代理モデルが転送可能なアタッカーとして採用されている。
我々は、クエリを大幅に削減できる効率的な攻撃ネットワークであるQueryNetを開発した。
論文 参考訳(メタデータ) (2021-05-31T14:45:10Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - A Data Augmentation-based Defense Method Against Adversarial Attacks in
Neural Networks [7.943024117353317]
そこで本研究では,実生活制約に適合した完全ホワイトボックス攻撃を効果的に無効化する軽量防衛手法を開発した。
我々のモデルは、50発のBPDAによる高度な適応攻撃に耐えることができ、攻撃成功率をほぼゼロに抑えながら、目標モデルが約80%の精度を維持するのに役立ちます。
論文 参考訳(メタデータ) (2020-07-30T08:06:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。