論文の概要: Going Far Boosts Attack Transferability, but Do Not Do It
- arxiv url: http://arxiv.org/abs/2102.10343v1
- Date: Sat, 20 Feb 2021 13:19:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-23 14:42:03.484958
- Title: Going Far Boosts Attack Transferability, but Do Not Do It
- Title(参考訳): Going Farがアタックトランスファービリティを向上するが、そうはならない
- Authors: Sizhe Chen, Qinghua Tao, Zhixing Ye, Xiaolin Huang
- Abstract要約: 7つの最適化アルゴリズム,4つのサロゲート,9つのブラックボックスモデルに関する包括的実験により,攻撃伝達性に対する最適化の影響を検討した。
最適化アルゴリズムからのAEsの様々な転送性は、元のサンプルから得られたRoot Mean Square Error(RMSE)と強く関係している。
LARAは転送可能性を大幅に20%改善するが、DNNの脆弱性を利用するには不十分である。
- 参考スコア(独自算出の注目度): 16.901240544106948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) could be easily fooled by Adversarial Examples
(AEs) with an imperceptible difference to original ones in human eyes. Also,
the AEs from attacking one surrogate DNN tend to cheat other black-box DNNs as
well, i.e., the attack transferability. Existing works reveal that adopting
certain optimization algorithms in attack improves transferability, but the
underlying reasons have not been thoroughly studied. In this paper, we
investigate the impacts of optimization on attack transferability by
comprehensive experiments concerning 7 optimization algorithms, 4 surrogates,
and 9 black-box models. Through the thorough empirical analysis from three
perspectives, we surprisingly find that the varied transferability of AEs from
optimization algorithms is strongly related to the corresponding Root Mean
Square Error (RMSE) from their original samples. On such a basis, one could
simply approach high transferability by attacking until RMSE decreases, which
motives us to propose a LArge RMSE Attack (LARA). Although LARA significantly
improves transferability by 20%, it is insufficient to exploit the
vulnerability of DNNs, leading to a natural urge that the strength of all
attacks should be measured by both the widely used $\ell_\infty$ bound and the
RMSE addressed in this paper, so that tricky enhancement of transferability
would be avoided.
- Abstract(参考訳): ディープニューラルネットワーク(Deep Neural Networks、DNN)は、人間の目の元のものと知覚不能な違いを持つ敵の例(AE)によって容易にだまされ得る。
また、AEは1つの代理DNNを攻撃しないため、他のブラックボックスDNNも騙す傾向にある。
既存の研究によると、特定の最適化アルゴリズムを攻撃に適用することで転送性が向上するが、根本的な理由は十分に研究されていない。
本稿では,7つの最適化アルゴリズム,4つのサロゲート,9つのブラックボックスモデルに関する包括的な実験を行い,攻撃伝達性に対する最適化の影響を検討する。
3つの観点からの徹底的な経験的分析を通して、最適化アルゴリズムからのAEsの様々な転送性は、元のサンプルから対応するRoot Mean Square Error(RMSE)と強く関連していることがわかった。
このような理由で、RMSEが減少するまで攻撃することで高転送性にアプローチするだけで、LArge RMSE攻撃(LARA)を提案します。
LARAは転送可能性を大幅に20%改善するが、DNNの脆弱性を悪用するには不十分であり、この論文で広く使われている$\ell_\infty$boundとRMSEの両方で全ての攻撃の強度を測定するべきであるという自然な衝動を招き、転送可能性のトリッキーな向上を回避することができる。
関連論文リスト
- Enhancing Adversarial Transferability with Adversarial Weight Tuning [36.09966860069978]
敵対的な例(AE)は、人間の観察者に対して良心を抱きながらモデルを誤解させた。
AWTは、勾配に基づく攻撃法とモデルに基づく攻撃法を組み合わせて、AEの転送可能性を高めるデータフリーチューニング手法である。
論文 参考訳(メタデータ) (2024-08-18T13:31:26Z) - Advancing Generalized Transfer Attack with Initialization Derived Bilevel Optimization and Dynamic Sequence Truncation [49.480978190805125]
転送攻撃はブラックボックスアプリケーションに大きな関心を惹きつける。
既存の作業は、本質的に単一のレベルの目的 w.r.t. シュロゲートモデルを直接最適化する。
本稿では,上位レベル(UL)と下位レベル(LL)のサロゲート攻撃とのネスト関係を明示的に再構築する2レベル最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T07:45:27Z) - LRS: Enhancing Adversarial Transferability through Lipschitz Regularized
Surrogate [8.248964912483912]
敵の例の転送性は、転送ベースのブラックボックス敵攻撃において重要である。
転送ベースブラックボックス攻撃に対するLipschitz Regularized Surrogate (LRS)を提案する。
我々は、最先端のディープニューラルネットワークとディフェンスモデルを攻撃することで、提案したLSSアプローチを評価する。
論文 参考訳(メタデータ) (2023-12-20T15:37:50Z) - Reliable Evaluation of Adversarial Transferability [17.112253436250946]
小さな敵対的摂動を持つ敵対的例(AE)は、ディープニューラルネットワーク(DNN)を誤った予測に導出する可能性がある。
我々は,4種類のニューラルネットワークから18種類の人気モデルを検証し,代表的転送可能性向上攻撃法を再評価する。
我々の再評価の結果、逆転性はしばしば過大評価され、すべての人気モデルに変換できる単一のAEは存在しないことが判明した。
論文 参考訳(メタデータ) (2023-06-14T15:17:51Z) - Quantization Aware Attack: Enhancing Transferable Adversarial Attacks by Model Quantization [57.87950229651958]
量子ニューラルネットワーク(QNN)は、異常な一般化性のため、リソース制約のあるシナリオに注目が集まっている。
従来の研究では、ビット幅の異なるQNN間で転送性を実現することは困難であった。
マルチビット学習目的のQNN代替モデルを微調整するテキスト品質認識攻撃(QAA)を提案する。
論文 参考訳(メタデータ) (2023-05-10T03:46:53Z) - Logit Margin Matters: Improving Transferable Targeted Adversarial Attack
by Logit Calibration [85.71545080119026]
クロスエントロピー(CE)損失関数は、伝達可能な標的対向例を学習するには不十分である。
本稿では,ロジットを温度係数と適応マージンでダウンスケールすることで,ロジットのキャリブレーションを簡易かつ効果的に行う2つの手法を提案する。
ImageNetデータセットを用いて実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-03-07T06:42:52Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Transfer Attacks Revisited: A Large-Scale Empirical Study in Real
Computer Vision Settings [64.37621685052571]
我々は,主要なクラウドベースのMLプラットフォームに対する転送攻撃について,最初の系統的実証的研究を行った。
この研究は、既存のものと矛盾しない多くの興味深い発見につながっている。
この作業は、一般的なMLプラットフォームの脆弱性に光を当て、いくつかの有望な研究方向を指し示している、と私たちは信じています。
論文 参考訳(メタデータ) (2022-04-07T12:16:24Z) - QueryNet: An Efficient Attack Framework with Surrogates Carrying
Multiple Identities [16.901240544106948]
ディープニューラルネットワーク(DNN)は敵の攻撃に対して脆弱であると認識されている。
ブラックボックス攻撃は、高い成功率を達成するために、被害者に対して広範囲なクエリを必要とする。
クエリ効率では、被害者の代理モデルが転送可能なアタッカーとして採用されている。
我々は、クエリを大幅に削減できる効率的な攻撃ネットワークであるQueryNetを開発した。
論文 参考訳(メタデータ) (2021-05-31T14:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。