論文の概要: Admix: Enhancing the Transferability of Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2102.00436v1
- Date: Sun, 31 Jan 2021 11:40:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 15:52:09.670651
- Title: Admix: Enhancing the Transferability of Adversarial Attacks
- Title(参考訳): Admix: 敵攻撃の転送可能性を高める
- Authors: Xiaosen Wang, Xuanran He, Jingdong Wang, Kun He
- Abstract要約: 我々はAdmix Attack Method (AAM) と呼ばれる新しい入力変換に基づく攻撃を提案する。
AAMは元の画像と他のカテゴリからランダムに選択された画像の両方を考慮する。
提案手法は,トランスファービリティをさらに向上し,入力変換の最先端の組み合わせを3.4%のクリアマージンで上回ることができる。
- 参考スコア(独自算出の注目度): 46.69028919537312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although adversarial attacks have achieved incredible attack success rates
under the white-box setting, most existing adversaries often exhibit weak
transferability under the black-box setting. To address this issue, various
input transformations have been proposed to enhance the attack transferability.
In this work, We observe that all the existing transformations are applied on a
single image, which might limit the transferability of the crafted adversaries.
Hence, we propose a new input transformation based attack called Admix Attack
Method (AAM) that considers both the original image and an image randomly
picked from other categories. Instead of directly calculating the gradient on
the original input, AAM calculates the gradient on the admixed image
interpolated by the two images in order to craft adversaries with higher
transferablility. Empirical evaluations on the standard ImageNet dataset
demonstrate that AAM could achieve much higher transferability than the
existing input transformation methods. By incorporating with other input
transformations, our method could further improve the transferability and
outperform the state-of-the-art combination of input transformations by a clear
margin of 3.4% on average when attacking nine advanced defense models.
- Abstract(参考訳): 敵の攻撃はホワイトボックス設定下では驚くべき攻撃成功率を達成したが、既存の敵の多くはブラックボックス設定下では移動性が弱い。
この問題に対処するため、攻撃伝達性を高めるために様々な入力変換が提案されている。
本研究では、既存のすべての変換が単一の画像に適用されることを観察し、これは製造された敵の移動性を制限する可能性がある。
そこで本研究では,他のカテゴリからランダムに選択した画像と原画像の両方を考慮し,admix attack method (aam) と呼ばれる新たな入力変換ベース攻撃を提案する。
元の入力の勾配を直接計算する代わりに、AAMは2つの画像で補間された混合画像の勾配を計算し、高い移動確率で敵を作らせる。
標準のImageNetデータセットの実証的評価は、AAMが既存の入力変換方法よりもはるかに高い転送性を達成できることを示しています。
他の入力変換を組み込むことで、9つの先進的防御モデルを攻撃する際、入力変換の最先端の組み合わせを平均3.4%の明確なマージンでさらに改善し、性能を上回ることができる。
関連論文リスト
- TranSegPGD: Improving Transferability of Adversarial Examples on
Semantic Segmentation [62.954089681629206]
そこで本研究では, セグメンテーションにおける2段階の対角攻撃戦略を提案し, セグメンテーションにおける対角攻撃の伝達性を向上させる。
提案手法は,最先端の性能を達成できる。
論文 参考訳(メタデータ) (2023-12-03T00:48:33Z) - Rethinking Mixup for Improving the Adversarial Transferability [6.2867306093287905]
我々は、MIST(Mixing the Image but Separating the gradienT)と呼ばれる入力変換に基づく新たな攻撃を提案する。
MISTは、入力画像とランダムにシフトした画像とをランダムに混合し、混合画像毎に各損失項目の勾配を分離する。
ImageNetデータセットの実験では、MISTが既存のSOTA入力変換ベースの攻撃より優れていることが示されている。
論文 参考訳(メタデータ) (2023-11-28T03:10:44Z) - Structure Invariant Transformation for better Adversarial
Transferability [9.272426833639615]
構造不変攻撃(Structure Invariant Attack, SIA)と呼ばれる新しい入力変換に基づく攻撃を提案する。
SIAは各画像ブロックにランダムな画像変換を適用し、勾配計算のための多様な画像群を作成する。
標準的なImageNetデータセットの実験では、SIAは既存のSOTA入力変換ベースの攻撃よりもはるかに優れた転送性を示している。
論文 参考訳(メタデータ) (2023-09-26T06:31:32Z) - Improving the Transferability of Adversarial Examples with Arbitrary
Style Transfer [32.644062141738246]
スタイル転送ネットワークは、人間の意味的内容を保持しながら、画像内の低レベルの視覚的特徴の分布を変更することができる。
本稿では、任意のスタイル転送ネットワークを用いて、画像を異なる領域に変換する新たな攻撃手法であるStyle Transfer Method (STM)を提案する。
提案手法は、通常訓練されたモデルまたは逆訓練されたモデルにおいて、逆変換性を大幅に向上させることができる。
論文 参考訳(メタデータ) (2023-08-21T09:58:13Z) - Boosting Adversarial Transferability by Block Shuffle and Rotation [25.603307815394764]
ブロックシャッフル・アンド・ローテーション(BSR)と呼ばれる新しい入力変換に基づく攻撃を提案する。
BSRは入力画像を複数のブロックに分割し、次にランダムにシャッフルし、これらのブロックを回転させ、勾配計算のための新しい画像群を構築する。
ImageNetデータセットの実験的評価により、BSRは既存の入力変換に基づく手法よりもはるかに優れた転送性が得られることが示された。
論文 参考訳(メタデータ) (2023-08-20T15:38:40Z) - Adaptive Image Transformations for Transfer-based Adversarial Attack [73.74904401540743]
適応画像変換学習(AITL)と呼ばれる新しいアーキテクチャを提案する。
精巧に設計した学習者は、入力画像固有の画像変換の最も効果的な組み合わせを適応的に選択する。
本手法は、通常訓練されたモデルと防衛モデルの両方において、各種設定下での攻撃成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-11-27T08:15:44Z) - Towards Transferable Adversarial Attacks on Vision Transformers [110.55845478440807]
視覚変換器(ViT)は、コンピュータビジョンの一連のタスクにおいて印象的なパフォーマンスを示してきたが、それでも敵の例に悩まされている。
本稿では、PNA攻撃とPatchOut攻撃を含むデュアルアタックフレームワークを導入し、異なるViT間での対向サンプルの転送性を改善する。
論文 参考訳(メタデータ) (2021-09-09T11:28:25Z) - Improving Adversarial Transferability with Gradient Refining [7.045900712659982]
逆の例は、人間の知覚できない摂動を原画像に加えることによって作られる。
ディープニューラルネットワークは、原画像に人間に知覚不能な摂動を加えることによって作られる逆転例に対して脆弱である。
論文 参考訳(メタデータ) (2021-05-11T07:44:29Z) - Gradient-based Adversarial Attacks against Text Transformers [96.73493433809419]
トランスモデルに対する初の汎用勾配攻撃を提案する。
我々は、ホワイトボックス攻撃が様々な自然言語タスクにおいて最先端の攻撃性能を達成することを実証的に実証する。
論文 参考訳(メタデータ) (2021-04-15T17:43:43Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。