論文の概要: Admix: Enhancing the Transferability of Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2102.00436v1
- Date: Sun, 31 Jan 2021 11:40:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 15:52:09.670651
- Title: Admix: Enhancing the Transferability of Adversarial Attacks
- Title(参考訳): Admix: 敵攻撃の転送可能性を高める
- Authors: Xiaosen Wang, Xuanran He, Jingdong Wang, Kun He
- Abstract要約: 我々はAdmix Attack Method (AAM) と呼ばれる新しい入力変換に基づく攻撃を提案する。
AAMは元の画像と他のカテゴリからランダムに選択された画像の両方を考慮する。
提案手法は,トランスファービリティをさらに向上し,入力変換の最先端の組み合わせを3.4%のクリアマージンで上回ることができる。
- 参考スコア(独自算出の注目度): 46.69028919537312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although adversarial attacks have achieved incredible attack success rates
under the white-box setting, most existing adversaries often exhibit weak
transferability under the black-box setting. To address this issue, various
input transformations have been proposed to enhance the attack transferability.
In this work, We observe that all the existing transformations are applied on a
single image, which might limit the transferability of the crafted adversaries.
Hence, we propose a new input transformation based attack called Admix Attack
Method (AAM) that considers both the original image and an image randomly
picked from other categories. Instead of directly calculating the gradient on
the original input, AAM calculates the gradient on the admixed image
interpolated by the two images in order to craft adversaries with higher
transferablility. Empirical evaluations on the standard ImageNet dataset
demonstrate that AAM could achieve much higher transferability than the
existing input transformation methods. By incorporating with other input
transformations, our method could further improve the transferability and
outperform the state-of-the-art combination of input transformations by a clear
margin of 3.4% on average when attacking nine advanced defense models.
- Abstract(参考訳): 敵の攻撃はホワイトボックス設定下では驚くべき攻撃成功率を達成したが、既存の敵の多くはブラックボックス設定下では移動性が弱い。
この問題に対処するため、攻撃伝達性を高めるために様々な入力変換が提案されている。
本研究では、既存のすべての変換が単一の画像に適用されることを観察し、これは製造された敵の移動性を制限する可能性がある。
そこで本研究では,他のカテゴリからランダムに選択した画像と原画像の両方を考慮し,admix attack method (aam) と呼ばれる新たな入力変換ベース攻撃を提案する。
元の入力の勾配を直接計算する代わりに、AAMは2つの画像で補間された混合画像の勾配を計算し、高い移動確率で敵を作らせる。
標準のImageNetデータセットの実証的評価は、AAMが既存の入力変換方法よりもはるかに高い転送性を達成できることを示しています。
他の入力変換を組み込むことで、9つの先進的防御モデルを攻撃する際、入力変換の最先端の組み合わせを平均3.4%の明確なマージンでさらに改善し、性能を上回ることができる。
関連論文リスト
- Incorporating Locality of Images to Generate Targeted Transferable
Adversarial Examples [88.6081640779354]
そこで我々は,画像の局所性(Locality of Images, LI)攻撃を標的転送性を改善するために提案する。
LIは、逆方向の原画像とランダムにトリミングされた画像の中間特徴との特徴的類似性損失を導入する。
実験により、LIは転送ベースのターゲットアタックに対して高い成功率を得ることができることが示された。
論文 参考訳(メタデータ) (2022-09-08T11:21:26Z) - Adaptive Image Transformations for Transfer-based Adversarial Attack [73.74904401540743]
適応画像変換学習(AITL)と呼ばれる新しいアーキテクチャを提案する。
精巧に設計した学習者は、入力画像固有の画像変換の最も効果的な組み合わせを適応的に選択する。
本手法は、通常訓練されたモデルと防衛モデルの両方において、各種設定下での攻撃成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-11-27T08:15:44Z) - Towards Transferable Adversarial Attacks on Vision Transformers [110.55845478440807]
視覚変換器(ViT)は、コンピュータビジョンの一連のタスクにおいて印象的なパフォーマンスを示してきたが、それでも敵の例に悩まされている。
本稿では、PNA攻撃とPatchOut攻撃を含むデュアルアタックフレームワークを導入し、異なるViT間での対向サンプルの転送性を改善する。
論文 参考訳(メタデータ) (2021-09-09T11:28:25Z) - Improving Adversarial Transferability with Gradient Refining [7.045900712659982]
逆の例は、人間の知覚できない摂動を原画像に加えることによって作られる。
ディープニューラルネットワークは、原画像に人間に知覚不能な摂動を加えることによって作られる逆転例に対して脆弱である。
論文 参考訳(メタデータ) (2021-05-11T07:44:29Z) - Gradient-based Adversarial Attacks against Text Transformers [96.73493433809419]
トランスモデルに対する初の汎用勾配攻撃を提案する。
我々は、ホワイトボックス攻撃が様々な自然言語タスクにおいて最先端の攻撃性能を達成することを実証的に実証する。
論文 参考訳(メタデータ) (2021-04-15T17:43:43Z) - Enhancing the Transferability of Adversarial Attacks through Variance
Tuning [6.5328074334512]
反復勾配に基づく攻撃手法のクラスを強化するための分散チューニングと呼ばれる新しい方法を提案する。
標準のImageNetデータセットを用いた実験結果から,勾配に基づく敵攻撃の転送性を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2021-03-29T12:41:55Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Random Transformation of Image Brightness for Adversarial Attack [5.405413975396116]
逆の例は、オリジナルの画像に小さな人間の知覚できないものを加えることで作られる。
ディープニューラルネットワークは、オリジナルの画像に小さな人間の知覚できないものを加えることで構築される敵の例に対して脆弱である。
本稿では,高速勾配符号法と統合可能な,この現象に基づく逆例生成手法を提案する。
本手法は,データ拡張に基づく他の攻撃方法よりもブラックボックス攻撃の成功率が高い。
論文 参考訳(メタデータ) (2021-01-12T07:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。