論文の概要: Enhancing Transferability of Adversarial Attacks with GE-AdvGAN+: A Comprehensive Framework for Gradient Editing
- arxiv url: http://arxiv.org/abs/2408.12673v1
- Date: Thu, 22 Aug 2024 18:26:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-26 16:48:16.026725
- Title: Enhancing Transferability of Adversarial Attacks with GE-AdvGAN+: A Comprehensive Framework for Gradient Editing
- Title(参考訳): GE-AdvGAN+による敵攻撃の伝達性向上
- Authors: Zhibo Jin, Jiayu Zhang, Zhiyu Zhu, Yuchen Zhang, Jiahao Huang, Jianlong Zhou, Fang Chen,
- Abstract要約: 転送可能な敵攻撃は、ディープニューラルネットワークに重大な脅威をもたらす。
本稿では、GE-AdvGAN+という、勾配編集に基づく転送可能な攻撃のための新しいフレームワークを提案する。
我々のフレームワークは、ほとんどすべての主流攻撃手法を統合し、転送可能性を高めながら、計算資源の消費を大幅に削減する。
- 参考スコア(独自算出の注目度): 12.131163373757383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transferable adversarial attacks pose significant threats to deep neural networks, particularly in black-box scenarios where internal model information is inaccessible. Studying adversarial attack methods helps advance the performance of defense mechanisms and explore model vulnerabilities. These methods can uncover and exploit weaknesses in models, promoting the development of more robust architectures. However, current methods for transferable attacks often come with substantial computational costs, limiting their deployment and application, especially in edge computing scenarios. Adversarial generative models, such as Generative Adversarial Networks (GANs), are characterized by their ability to generate samples without the need for retraining after an initial training phase. GE-AdvGAN, a recent method for transferable adversarial attacks, is based on this principle. In this paper, we propose a novel general framework for gradient editing-based transferable attacks, named GE-AdvGAN+, which integrates nearly all mainstream attack methods to enhance transferability while significantly reducing computational resource consumption. Our experiments demonstrate the compatibility and effectiveness of our framework. Compared to the baseline AdvGAN, our best-performing method, GE-AdvGAN++, achieves an average ASR improvement of 47.8. Additionally, it surpasses the latest competing algorithm, GE-AdvGAN, with an average ASR increase of 5.9. The framework also exhibits enhanced computational efficiency, achieving 2217.7 FPS, outperforming traditional methods such as BIM and MI-FGSM. The implementation code for our GE-AdvGAN+ framework is available at https://github.com/GEAdvGANP
- Abstract(参考訳): 転送可能な敵攻撃は、特に内部モデル情報がアクセスできないブラックボックスシナリオにおいて、ディープニューラルネットワークに重大な脅威をもたらす。
敵攻撃法の研究は、防御機構の性能を向上し、モデルの脆弱性を探究するのに役立つ。
これらの手法はモデルの弱点を発見し、活用し、より堅牢なアーキテクチャの開発を促進する。
しかしながら、トランスファー可能な攻撃の現在の手法は、特にエッジコンピューティングのシナリオにおいて、デプロイとアプリケーションを制限する、かなりの計算コストを伴うことが多い。
GAN(Generative Adversarial Networks)のような逆生成モデルは、最初のトレーニングフェーズ後に再トレーニングすることなくサンプルを生成する能力によって特徴付けられる。
GE-AdvGANは、この原理に基づいている。
本稿では,GE-AdvGAN+という,勾配編集に基づく転送可能な攻撃のための新しいフレームワークを提案する。
我々の実験は、我々のフレームワークの互換性と有効性を実証した。
ベースラインであるAdvGANと比較して、GE-AdvGAN++は平均47.8のASR改善を実現している。
さらに、最新の競合アルゴリズムであるGE-AdvGANを上回り、平均ASRは5.9増加した。
このフレームワークはまた、BIMやMI-FGSMといった従来の手法よりも優れた2217.7 FPSを達成し、計算効率も向上している。
GE-AdvGAN+フレームワークの実装コードはhttps://github.com/GEAdvGANPで公開されている。
関連論文リスト
- AGSOA:Graph Neural Network Targeted Attack Based on Average Gradient and Structure Optimization [16.681157857248436]
グラフニューラルネットワーク(GNN)は、グラフに小さな摂動を加えることでパフォーマンス低下を引き起こす敵攻撃に対して脆弱である。
本稿では、平均勾配計算と構造最適化モジュールで構成されるAGSOAと呼ばれるGNNに対する攻撃を提案する。
論文 参考訳(メタデータ) (2024-06-19T05:29:20Z) - Advancing Generalized Transfer Attack with Initialization Derived Bilevel Optimization and Dynamic Sequence Truncation [49.480978190805125]
転送攻撃はブラックボックスアプリケーションに大きな関心を惹きつける。
既存の作業は、本質的に単一のレベルの目的 w.r.t. シュロゲートモデルを直接最適化する。
本稿では,上位レベル(UL)と下位レベル(LL)のサロゲート攻撃とのネスト関係を明示的に再構築する2レベル最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T07:45:27Z) - GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - Unscrambling the Rectification of Adversarial Attacks Transferability
across Computer Networks [4.576324217026666]
畳み込みニューラルネットワーク(CNN)モデルは、最先端のパフォーマンスを達成する上で重要な役割を果たす。
CNNは敵の攻撃を受けやすいため、妥協することができる。
本稿では,攻撃の強さを向上し,CNNにおける敵例の伝達可能性を評価するための,新しい包括的手法を提案する。
論文 参考訳(メタデータ) (2023-10-26T22:36:24Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Mixture GAN For Modulation Classification Resiliency Against Adversarial
Attacks [55.92475932732775]
本稿では,GANをベースとした新たな生成逆ネットワーク(Generative Adversarial Network, GAN)を提案する。
GANベースの目的は、DNNベースの分類器に入力する前に、敵の攻撃例を排除することである。
シミュレーションの結果,DNNをベースとしたAMCの精度が約81%に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-29T22:30:32Z) - LAS-AT: Adversarial Training with Learnable Attack Strategy [82.88724890186094]
LAS-ATと呼ばれる「学習可能な攻撃戦略」は、モデル堅牢性を改善するための攻撃戦略を自動生成することを学ぶ。
当社のフレームワークは,強靭性向上のためのトレーニングにAEを使用するターゲットネットワークと,AE生成を制御するための攻撃戦略を生成する戦略ネットワークで構成されている。
論文 参考訳(メタデータ) (2022-03-13T10:21:26Z) - Interpolated Joint Space Adversarial Training for Robust and
Generalizable Defenses [82.3052187788609]
敵の訓練(AT)は、敵の攻撃に対する最も信頼できる防御の1つと考えられている。
近年の研究では、新たな脅威モデルの下での対向サンプルによる一般化の改善が示されている。
我々は、JSTM(Joint Space Threat Model)と呼ばれる新しい脅威モデルを提案する。
JSTMでは,新たな敵攻撃・防衛手法が開発されている。
論文 参考訳(メタデータ) (2021-12-12T21:08:14Z) - BinarizedAttack: Structural Poisoning Attacks to Graph-based Anomaly
Detection [20.666171188140503]
グラフに基づく異常検出(GAD)は,グラフの強力な表現能力によって普及しつつある。
皮肉なことに、これらのGADツールは、データ間の関係を活用できるというユニークな利点のために、新たな攻撃面を公開する。
本稿では, この脆弱性を利用して, 代表的な回帰型GADシステムOddBallに対して, 標的となる新しいタイプの構造的中毒攻撃を設計する。
論文 参考訳(メタデータ) (2021-06-18T08:20:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。