論文の概要: Structure Invariant Transformation for better Adversarial
Transferability
- arxiv url: http://arxiv.org/abs/2309.14700v1
- Date: Tue, 26 Sep 2023 06:31:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 14:57:11.492414
- Title: Structure Invariant Transformation for better Adversarial
Transferability
- Title(参考訳): 逆移動性向上のための構造不変変換
- Authors: Xiaosen Wang, Zeliang Zhang, Jianping Zhang
- Abstract要約: 構造不変攻撃(Structure Invariant Attack, SIA)と呼ばれる新しい入力変換に基づく攻撃を提案する。
SIAは各画像ブロックにランダムな画像変換を適用し、勾配計算のための多様な画像群を作成する。
標準的なImageNetデータセットの実験では、SIAは既存のSOTA入力変換ベースの攻撃よりもはるかに優れた転送性を示している。
- 参考スコア(独自算出の注目度): 9.272426833639615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given the severe vulnerability of Deep Neural Networks (DNNs) against
adversarial examples, there is an urgent need for an effective adversarial
attack to identify the deficiencies of DNNs in security-sensitive applications.
As one of the prevalent black-box adversarial attacks, the existing
transfer-based attacks still cannot achieve comparable performance with the
white-box attacks. Among these, input transformation based attacks have shown
remarkable effectiveness in boosting transferability. In this work, we find
that the existing input transformation based attacks transform the input image
globally, resulting in limited diversity of the transformed images. We
postulate that the more diverse transformed images result in better
transferability. Thus, we investigate how to locally apply various
transformations onto the input image to improve such diversity while preserving
the structure of image. To this end, we propose a novel input transformation
based attack, called Structure Invariant Attack (SIA), which applies a random
image transformation onto each image block to craft a set of diverse images for
gradient calculation. Extensive experiments on the standard ImageNet dataset
demonstrate that SIA exhibits much better transferability than the existing
SOTA input transformation based attacks on CNN-based and transformer-based
models, showing its generality and superiority in boosting transferability.
Code is available at https://github.com/xiaosen-wang/SIT.
- Abstract(参考訳): 敵の例に対するディープニューラルネットワーク(DNN)の深刻な脆弱性を考えると、セキュリティに敏感なアプリケーションにおけるDNNの欠陥を特定するために、効果的な敵攻撃が必要である。
一般的なブラックボックス攻撃の1つとして、既存の転送ベースの攻撃はホワイトボックス攻撃と同等の性能を達成できない。
これらのうち、入力変換に基づく攻撃は転送性の向上に顕著な効果を示している。
本研究では,既存の入力変換に基づく攻撃が入力画像をグローバルに変換し,変換画像の多様性が限定されることを示す。
より多様な変換された画像により、転送性が向上すると仮定する。
そこで,画像の構造を保ちながら,入力画像に様々な変換を局所的に適用し,その多様性を向上させる方法について検討する。
そこで本研究では、各画像ブロックにランダムな画像変換を適用して、勾配計算のための多様な画像セットを作成する、新たな入力変換ベースアタックであるStructure Invariant Attack(SIA)を提案する。
標準のimagenetデータセットに関する広範囲な実験により、siaはcnnおよびtransformerベースのモデルによる既存のsota入力変換に基づく攻撃よりもはるかに優れた転送性を示し、その汎用性と転送性の向上の優位性を示している。
コードはhttps://github.com/xiaosen-wang/SITで入手できる。
関連論文リスト
- Semantic-Aligned Adversarial Evolution Triangle for High-Transferability Vision-Language Attack [51.16384207202798]
視覚言語事前学習モデルは多モーダル逆例(AE)に対して脆弱である
従来のアプローチでは、画像とテキストのペアを拡大して、敵対的なサンプル生成プロセス内での多様性を高めている。
本稿では, 敵の多様性を高めるために, クリーン, ヒストリ, および現在の敵の例からなる敵の進化三角形からのサンプリングを提案する。
論文 参考訳(メタデータ) (2024-11-04T23:07:51Z) - TranSegPGD: Improving Transferability of Adversarial Examples on
Semantic Segmentation [62.954089681629206]
そこで本研究では, セグメンテーションにおける2段階の対角攻撃戦略を提案し, セグメンテーションにおける対角攻撃の伝達性を向上させる。
提案手法は,最先端の性能を達成できる。
論文 参考訳(メタデータ) (2023-12-03T00:48:33Z) - Improving the Transferability of Adversarial Examples with Arbitrary
Style Transfer [32.644062141738246]
スタイル転送ネットワークは、人間の意味的内容を保持しながら、画像内の低レベルの視覚的特徴の分布を変更することができる。
本稿では、任意のスタイル転送ネットワークを用いて、画像を異なる領域に変換する新たな攻撃手法であるStyle Transfer Method (STM)を提案する。
提案手法は、通常訓練されたモデルまたは逆訓練されたモデルにおいて、逆変換性を大幅に向上させることができる。
論文 参考訳(メタデータ) (2023-08-21T09:58:13Z) - Boosting Adversarial Transferability by Block Shuffle and Rotation [25.603307815394764]
ブロックシャッフル・アンド・ローテーション(BSR)と呼ばれる新しい入力変換に基づく攻撃を提案する。
BSRは入力画像を複数のブロックに分割し、次にランダムにシャッフルし、これらのブロックを回転させ、勾配計算のための新しい画像群を構築する。
ImageNetデータセットの実験的評価により、BSRは既存の入力変換に基づく手法よりもはるかに優れた転送性が得られることが示された。
論文 参考訳(メタデータ) (2023-08-20T15:38:40Z) - Diversifying the High-level Features for better Adversarial
Transferability [21.545976132427747]
本稿では,高次特徴量(DHF)の多角化を提案する。
DHFは、ハイレベルな特徴をランダムに変換し、良質なサンプルの特徴と混ぜることで、ハイレベルな特徴を摂動させる。
ImageNetデータセットの実証的な評価は、DHFが既存のモーメントベースの攻撃の転送性を効果的に改善できることを示している。
論文 参考訳(メタデータ) (2023-04-20T07:44:59Z) - Adaptive Image Transformations for Transfer-based Adversarial Attack [73.74904401540743]
適応画像変換学習(AITL)と呼ばれる新しいアーキテクチャを提案する。
精巧に設計した学習者は、入力画像固有の画像変換の最も効果的な組み合わせを適応的に選択する。
本手法は、通常訓練されたモデルと防衛モデルの両方において、各種設定下での攻撃成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-11-27T08:15:44Z) - Towards Transferable Adversarial Attacks on Vision Transformers [110.55845478440807]
視覚変換器(ViT)は、コンピュータビジョンの一連のタスクにおいて印象的なパフォーマンスを示してきたが、それでも敵の例に悩まされている。
本稿では、PNA攻撃とPatchOut攻撃を含むデュアルアタックフレームワークを導入し、異なるViT間での対向サンプルの転送性を改善する。
論文 参考訳(メタデータ) (2021-09-09T11:28:25Z) - Admix: Enhancing the Transferability of Adversarial Attacks [46.69028919537312]
我々はAdmix Attack Method (AAM) と呼ばれる新しい入力変換に基づく攻撃を提案する。
AAMは元の画像と他のカテゴリからランダムに選択された画像の両方を考慮する。
提案手法は,トランスファービリティをさらに向上し,入力変換の最先端の組み合わせを3.4%のクリアマージンで上回ることができる。
論文 参考訳(メタデータ) (2021-01-31T11:40:50Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。