論文の概要: Making Adversarial Examples More Transferable and Indistinguishable
- arxiv url: http://arxiv.org/abs/2007.03838v2
- Date: Sat, 11 Dec 2021 13:42:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 12:40:21.574260
- Title: Making Adversarial Examples More Transferable and Indistinguishable
- Title(参考訳): 敵の例をより移譲しやすくする
- Authors: Junhua Zou, Yexin Duan, Boyu Li, Wu Zhang, Yu Pan, Zhisong Pan
- Abstract要約: 本稿では,高い転送性を有する不明瞭な逆例を生成する手法を提案する。
我々の最も優れた転送ベース攻撃NI-TI-DI-AITMは、89.3%の平均的な成功率で6つの古典的な防衛モデルを騙すことができる。
- 参考スコア(独自算出の注目度): 7.885043234081768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fast gradient sign attack series are popular methods that are used to
generate adversarial examples. However, most of the approaches based on fast
gradient sign attack series cannot balance the indistinguishability and
transferability due to the limitations of the basic sign structure. To address
this problem, we propose a method, called Adam Iterative Fast Gradient Tanh
Method (AI-FGTM), to generate indistinguishable adversarial examples with high
transferability. Besides, smaller kernels and dynamic step size are also
applied to generate adversarial examples for further increasing the attack
success rates. Extensive experiments on an ImageNet-compatible dataset show
that our method generates more indistinguishable adversarial examples and
achieves higher attack success rates without extra running time and resource.
Our best transfer-based attack NI-TI-DI-AITM can fool six classic defense
models with an average success rate of 89.3% and three advanced defense models
with an average success rate of 82.7%, which are higher than the
state-of-the-art gradient-based attacks. Additionally, our method can also
reduce nearly 20% mean perturbation. We expect that our method will serve as a
new baseline for generating adversarial examples with better transferability
and indistinguishability.
- Abstract(参考訳): 高速勾配標識攻撃シリーズは、敵の例を生成するために使われる一般的な方法である。
しかし, 高速勾配標識攻撃級数に基づくアプローチは, 基本符号構造に制約があるため, 不明瞭性と伝達性のバランスが取れない。
この問題に対処するために,Adam Iterative Fast Gradient Tanh Method (AI-FGTM) という手法を提案する。
さらに、より小さなカーネルと動的ステップサイズも適用され、攻撃成功率をさらに高める敵の例を生成する。
ImageNet互換データセットの大規模な実験により、我々の手法はより識別不能な敵のサンプルを生成し、余分な実行時間やリソースを伴わずにより高い攻撃成功率を達成する。
我々の最高のトランスファーベースの攻撃であるni-ti-di-aitmは、平均成功率89.3%の6つの古典的な防御モデルと、平均成功率82.7%の3つの先進的な防御モデルを騙すことができる。
また,提案手法は平均摂動量を20%近く削減できる。
提案手法は, より優れた転送性と不明瞭性を有する逆例を生成するための新しいベースラインとして機能することを期待している。
関連論文リスト
- Improving Adversarial Transferability with Neighbourhood Gradient Information [20.55829486744819]
ディープニューラルネットワーク(DNN)は、敵の例に影響を受けやすいため、パフォーマンスが著しく低下する。
本研究は、この性能ギャップを狭めるために、敵の例の転送可能性を高めることに焦点を当てる。
事例追跡と多重マスク戦略を取り入れたNGI-Attackを提案する。
論文 参考訳(メタデータ) (2024-08-11T10:46:49Z) - Improving the Transferability of Adversarial Examples via Direction
Tuning [18.880398046794138]
移動型対人攻撃では、敵対例は代理モデルによってのみ生成され、犠牲者モデルにおいて効果的な摂動が達成される。
新たなトランスファーベースアタック、すなわち方向調整アタックが提案され、大きなステップ長の更新偏差を減少させる。
さらに,ネットワークプルーニング手法を提案し,決定境界を円滑にすることで,更新振動を低減し,生成した逆数例の転送性を向上させる。
論文 参考訳(メタデータ) (2023-03-27T11:26:34Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Adaptive Perturbation for Adversarial Attack [50.77612889697216]
そこで本研究では,新たな逆例に対する勾配に基づく攻撃手法を提案する。
逆方向の摂動を発生させるために,スケーリング係数を用いた正確な勾配方向を用いる。
本手法は, 高い伝達性を示し, 最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-27T07:57:41Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z) - Improving the Transferability of Adversarial Examples with New Iteration
Framework and Input Dropout [8.24029748310858]
本稿では,反復ステップサイズ,摂動数,最大イテレーションの関係を再定義する,新たな勾配反復フレームワークを提案する。
本枠組みでは,DI-TI-MIMの攻撃成功率を容易に向上させる。
さらに,入力ドロップアウトに基づく勾配反復攻撃手法を提案する。
論文 参考訳(メタデータ) (2021-06-03T06:36:38Z) - Staircase Sign Method for Boosting Adversarial Attacks [123.19227129979943]
トランスファーベースの攻撃の敵の例を作るのは難しいし、研究のホットスポットだ。
そこで本研究では,この問題を緩和するための新しい階段サイン法(S$2$M)を提案する。
我々の手法は一般に転送ベースの攻撃と統合することができ、計算オーバーヘッドは無視できる。
論文 参考訳(メタデータ) (2021-04-20T02:31:55Z) - Boosting Adversarial Transferability through Enhanced Momentum [50.248076722464184]
深層学習モデルは、人間の知覚できない摂動を良心的なイメージに加えることで、敵の例に弱い。
さまざまな運動量反復勾配に基づく方法が逆転性を改善するのに有効であることが示されている。
本稿では,逆伝達性をさらに高めるために,運動量反復勾配に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-19T03:10:32Z) - Adversarial example generation with AdaBelief Optimizer and Crop
Invariance [8.404340557720436]
敵攻撃は、安全クリティカルなアプリケーションにおいて堅牢なモデルを評価し、選択するための重要な方法である。
本稿では,AdaBelief Iterative Fast Gradient Method (ABI-FGM)とCrop-Invariant attack Method (CIM)を提案する。
我々の手法は、最先端の勾配に基づく攻撃法よりも成功率が高い。
論文 参考訳(メタデータ) (2021-02-07T06:00:36Z) - Improving the Transferability of Adversarial Examples with the Adam
Optimizer [11.210560572849383]
本研究は、改良されたアダム勾配降下法と反復勾配に基づく攻撃法を組み合わせたものである。
ImageNetの実験により,提案手法は既存の反復法よりも攻撃成功率が高いことが示された。
我々の最高のブラックボックス攻撃は、通常訓練されたネットワークで81.9%、敵訓練されたネットワークで38.7%の成功率を達成した。
論文 参考訳(メタデータ) (2020-12-01T15:18:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。