論文の概要: PAR-AdvGAN: Improving Adversarial Attack Capability with Progressive Auto-Regression AdvGAN
- arxiv url: http://arxiv.org/abs/2502.12207v1
- Date: Sun, 16 Feb 2025 19:00:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:08:08.874125
- Title: PAR-AdvGAN: Improving Adversarial Attack Capability with Progressive Auto-Regression AdvGAN
- Title(参考訳): PAR-AdvGAN: プログレッシブ自己回帰AdvGANによる敵攻撃能力の向上
- Authors: Jiayu Zhang, Zhiyu Zhu, Xinyi Wang, Silin Liao, Zhibo Jin, Flora D. Salim, Huaming Chen,
- Abstract要約: 我々はProgressive Auto-Regression AdvGAN(PAR-AdvGAN)という新しいアプローチを導入する。
プログレッシブジェネレーションネットワークに自動回帰イテレーション機構を組み込んで、攻撃能力を増強した敵の例を作成する。
従来のAdvGANと同様に、最先端のブラックボックス攻撃よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 37.42219059503242
- License:
- Abstract: Deep neural networks have demonstrated remarkable performance across various domains. However, they are vulnerable to adversarial examples, which can lead to erroneous predictions. Generative Adversarial Networks (GANs) can leverage the generators and discriminators model to quickly produce high-quality adversarial examples. Since both modules train in a competitive and simultaneous manner, GAN-based algorithms like AdvGAN can generate adversarial examples with better transferability compared to traditional methods. However, the generation of perturbations is usually limited to a single iteration, preventing these examples from fully exploiting the potential of the methods. To tackle this issue, we introduce a novel approach named Progressive Auto-Regression AdvGAN (PAR-AdvGAN). It incorporates an auto-regressive iteration mechanism within a progressive generation network to craft adversarial examples with enhanced attack capability. We thoroughly evaluate our PAR-AdvGAN method with a large-scale experiment, demonstrating its superior performance over various state-of-the-art black-box adversarial attacks, as well as the original AdvGAN.Moreover, PAR-AdvGAN significantly accelerates the adversarial example generation, i.e., achieving the speeds of up to 335.5 frames per second on Inception-v3 model, outperforming the gradient-based transferable attack algorithms. Our code is available at: https://anonymous.4open.science/r/PAR-01BF/
- Abstract(参考訳): ディープニューラルネットワークは、様々な領域で顕著なパフォーマンスを示している。
しかし、それらは敵の例に弱いため、誤った予測につながる可能性がある。
GAN(Generative Adversarial Networks)は、ジェネレータと識別器モデルを利用して、高品質な敵ネットワークを迅速に生成する。
どちらのモジュールも、競合的かつ同時にトレーニングするので、AdvGANのようなGANベースのアルゴリズムは、従来の方法よりも優れた転送可能性を持つ逆例を生成することができる。
しかしながら、摂動の発生は通常、単一の反復に限られており、これらの例がメソッドのポテンシャルを完全に活用することを防ぐ。
この問題に対処するため,我々はProgressive Auto-Regression AdvGAN (PAR-AdvGAN) という新しいアプローチを導入する。
プログレッシブジェネレーションネットワークに自動回帰イテレーション機構を組み込んで、攻撃能力を増強した敵の例を作成する。
Inception-v3モデルで最大335.5フレーム/秒の速度を達成し、グラデーションベースの転送可能な攻撃アルゴリズムより優れていることを示す。
私たちのコードは、https://anonymous.4open.science/r/PAR-01BF/で利用可能です。
関連論文リスト
- Efficient Generation of Targeted and Transferable Adversarial Examples for Vision-Language Models Via Diffusion Models [17.958154849014576]
大規模視覚言語モデル(VLM)のロバスト性を評価するために、敵対的攻撃を用いることができる。
従来のトランスファーベースの敵攻撃は、高いイテレーション数と複雑なメソッド構造により、高いコストを発生させる。
本稿では, 拡散モデルを用いて, 自然, 制約のない, 対象とする対向的な例を生成するAdvDiffVLMを提案する。
論文 参考訳(メタデータ) (2024-04-16T07:19:52Z) - GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - AdvDiff: Generating Unrestricted Adversarial Examples using Diffusion Models [7.406040859734522]
制限のない敵攻撃は、深層学習モデルや敵防衛技術に深刻な脅威をもたらす。
以前の攻撃法は、しばしば生成モデルのサンプリングに投影された勾配(PGD)を直接注入する。
本稿では,拡散モデルを用いた非制限逆例を生成するAdvDiffと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T03:10:02Z) - Boosting the Transferability of Adversarial Attacks with Reverse
Adversarial Perturbation [32.81400759291457]
逆の例は、知覚不能な摂動を注入することで誤った予測を生じさせる。
本研究では,現実の応用への脅威から,敵対的事例の伝達可能性について検討する。
逆対向摂動(RAP)と呼ばれる新しい攻撃法を提案する。
論文 参考訳(メタデータ) (2022-10-12T07:17:33Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Transferable Sparse Adversarial Attack [62.134905824604104]
オーバーフィッティング問題を緩和するジェネレータアーキテクチャを導入し、転送可能なスパース対逆例を効率的に作成する。
提案手法は,他の最適化手法よりも700$times$高速な推論速度を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:44:58Z) - Generalizing Adversarial Examples by AdaBelief Optimizer [6.243028964381449]
本稿では,AdaBelief反復高速勾配符号法を提案し,その逆例を一般化する。
提案手法は,最先端の攻撃手法と比較して,ホワイトボックス設定における敵例を効果的に生成することができる。
転送速度は、最新の攻撃方法よりも7%-21%高いです。
論文 参考訳(メタデータ) (2021-01-25T07:39:16Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。