論文の概要: Improving the Transferability of Adversarial Examples with
Resized-Diverse-Inputs, Diversity-Ensemble and Region Fitting
- arxiv url: http://arxiv.org/abs/2112.06011v1
- Date: Sat, 11 Dec 2021 15:57:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-17 10:25:16.933895
- Title: Improving the Transferability of Adversarial Examples with
Resized-Diverse-Inputs, Diversity-Ensemble and Region Fitting
- Title(参考訳): 逆入力, 多様性アンサンブル, 領域フィッティングによる逆例の転送性の向上
- Authors: Junhua Zou, Zhisong Pan, Junyang Qiu, Xin Liu, Ting Rui, Wei Li
- Abstract要約: 本稿では,Resized-diverse-Inputs (RDIM), diversity-ensemble (DEM), region fitという3段階のパイプラインを紹介する。
RDIMとリージョンフィッティングは追加のランニング時間を必要としないため、これらの3つのステップは他の攻撃とうまく統合することができる。
我々の最良の攻撃は6つのブラックボックス防御を騙し、平均93%の成功率で、最先端の勾配ベースの攻撃よりも高い。
- 参考スコア(独自算出の注目度): 11.40398558310375
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a three stage pipeline: resized-diverse-inputs (RDIM),
diversity-ensemble (DEM) and region fitting, that work together to generate
transferable adversarial examples. We first explore the internal relationship
between existing attacks, and propose RDIM that is capable of exploiting this
relationship. Then we propose DEM, the multi-scale version of RDIM, to generate
multi-scale gradients. After the first two steps we transform value fitting
into region fitting across iterations. RDIM and region fitting do not require
extra running time and these three steps can be well integrated into other
attacks. Our best attack fools six black-box defenses with a 93% success rate
on average, which is higher than the state-of-the-art gradient-based attacks.
Besides, we rethink existing attacks rather than simply stacking new methods on
the old ones to get better performance. It is expected that our findings will
serve as the beginning of exploring the internal relationship between attack
methods. Codes are available at https://github.com/278287847/DEM.
- Abstract(参考訳): 本稿では,Resized-diverse-inputs (RDIM) と多様性アンサンブル (DEM) とリージョンフィッティング (リージョンフィッティング) という3段階のパイプラインを導入し,トランスファー可能な逆例を生成する。
まず,既存の攻撃間の内的関係を探索し,この関係を活用可能なrdimを提案する。
次に、RDIMのマルチスケールバージョンであるDEMを提案し、マルチスケール勾配を生成する。
最初の2つのステップの後に、イテレーション間で値フィッティングを領域フィッティングに変換する。
RDIMとリージョンフィッティングは追加のランニング時間を必要としないため、これらの3つのステップは他の攻撃とうまく統合することができる。
我々の最良の攻撃は6つのブラックボックス防御を騙し、平均93%の成功率は最先端の勾配ベースの攻撃よりも高い。
さらに、パフォーマンスを改善するために古いメソッドに新しいメソッドを積み重ねるのではなく、既存の攻撃を再考する。
本研究は,攻撃手法の内部関係を探究する出発点として期待されている。
コードはhttps://github.com/278287847/DEMで公開されている。
関連論文リスト
- Deciphering Movement: Unified Trajectory Generation Model for Multi-Agent [53.637837706712794]
任意の軌道をマスク入力として処理する統一軌道生成モデルUniTrajを提案する。
具体的には,空間特徴抽出のためのトランスフォーマーエンコーダ内に埋め込まれたゴースト空間マスキング(GSM)モジュールを導入する。
バスケットボール-U,サッカー-U,サッカー-Uの3つの実用的なスポーツゲームデータセットをベンチマークして評価を行った。
論文 参考訳(メタデータ) (2024-05-27T22:15:23Z) - Modeling Adversarial Attack on Pre-trained Language Models as Sequential
Decision Making [10.425483543802846]
敵攻撃タスクは、事前訓練された言語モデル(PLM)が小さな摂動に弱いことを発見した。
本稿では, PLM に対する逆攻撃タスクを逐次決定問題としてモデル化する。
そこで本稿では,SDM-Attack と呼ばれる敵を発生させる適切な逐次攻撃経路を見つけるための強化学習を提案する。
論文 参考訳(メタデータ) (2023-05-27T10:33:53Z) - Pseudo Label-Guided Model Inversion Attack via Conditional Generative
Adversarial Network [102.21368201494909]
モデル反転(MI)攻撃はプライバシーに対する懸念を高めている。
近年のMI攻撃では,探索空間を狭める前にGAN(Generative Adversarial Network)を画像として活用している。
我々は条件付きGAN(cGAN)による擬似ラベル誘導MI(PLG-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2023-02-20T07:29:34Z) - Transferable Adversarial Attack based on Integrated Gradients [14.901405127736886]
目的関数の最適化、注意マップの活用、意思決定面の平滑化という3つのアプローチは、通常、敵の例を作成するために用いられる。
本稿では,TAIG(Integrated Gradients)に基づくTransferable Attackというアルゴリズムを提案する。
直線経路上の積分勾配とランダムな片方向線形経路を演算する2種類のTAIGについて検討した。
論文 参考訳(メタデータ) (2022-05-26T04:59:28Z) - Virtual Data Augmentation: A Robust and General Framework for
Fine-tuning Pre-trained Models [51.46732511844122]
強力な事前訓練型言語モデル(PLM)は、小さな摂動や意図的な攻撃によって騙されることがある。
VDA(Virtual Data Augmentation)は,PLMを高度に微調整するための一般的なフレームワークである。
本手法は, PLMの堅牢性を向上し, 敵攻撃時の性能劣化を軽減する。
論文 参考訳(メタデータ) (2021-09-13T09:15:28Z) - Improving the Transferability of Adversarial Examples with New Iteration
Framework and Input Dropout [8.24029748310858]
本稿では,反復ステップサイズ,摂動数,最大イテレーションの関係を再定義する,新たな勾配反復フレームワークを提案する。
本枠組みでは,DI-TI-MIMの攻撃成功率を容易に向上させる。
さらに,入力ドロップアウトに基づく勾配反復攻撃手法を提案する。
論文 参考訳(メタデータ) (2021-06-03T06:36:38Z) - Staircase Sign Method for Boosting Adversarial Attacks [123.19227129979943]
トランスファーベースの攻撃の敵の例を作るのは難しいし、研究のホットスポットだ。
そこで本研究では,この問題を緩和するための新しい階段サイン法(S$2$M)を提案する。
我々の手法は一般に転送ベースの攻撃と統合することができ、計算オーバーヘッドは無視できる。
論文 参考訳(メタデータ) (2021-04-20T02:31:55Z) - A Person Re-identification Data Augmentation Method with Adversarial
Defense Effect [5.8377608127737375]
対角防御効果を有するReIDマルチモーダルデータ拡張法を提案する。
提案手法は,複数のデータセット上で良好に動作し,CVPR 2020 が提案する ReID に対する MS-SSIM 攻撃の防御に成功している。
論文 参考訳(メタデータ) (2021-01-21T12:07:57Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。