論文の概要: Sparse-PGD: A Unified Framework for Sparse Adversarial Perturbations Generation
- arxiv url: http://arxiv.org/abs/2405.05075v3
- Date: Tue, 24 Dec 2024 05:55:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-25 15:52:27.592551
- Title: Sparse-PGD: A Unified Framework for Sparse Adversarial Perturbations Generation
- Title(参考訳): Sparse-PGD: スパース対向摂動生成のための統一フレームワーク
- Authors: Xuyang Zhong, Chen Liu,
- Abstract要約: この研究は、非構造的および構造的の両方を含む、スパース対向的摂動の研究である。
そこで我々は,Sparse-PGD というホワイトボックス PGD ライクな攻撃手法に基づくフレームワークを提案する。
Sparse-PGDとブラックボックス攻撃を組み合わせることで、非構造的および構造的スパース対向摂動に対するモデルの堅牢性を評価する。
- 参考スコア(独自算出の注目度): 2.3371504588528635
- License:
- Abstract: This work studies sparse adversarial perturbations, including both unstructured and structured ones. We propose a framework based on a white-box PGD-like attack method named Sparse-PGD to effectively and efficiently generate such perturbations. Furthermore, we combine Sparse-PGD with a black-box attack to comprehensively and more reliably evaluate the models' robustness against unstructured and structured sparse adversarial perturbations. Moreover, the efficiency of Sparse-PGD enables us to conduct adversarial training to build robust models against various sparse perturbations. Extensive experiments demonstrate that our proposed attack algorithm exhibits strong performance in different scenarios. More importantly, compared with other robust models, our adversarially trained model demonstrates state-of-the-art robustness against various sparse attacks.
- Abstract(参考訳): この研究は、非構造的および構造的の両方を含む、スパース対向的摂動の研究である。
そこで我々は,Sparse-PGD というホワイトボックス PGD ライクな攻撃手法に基づくフレームワークを提案する。
さらに,Sparse-PGDとブラックボックス攻撃を組み合わせることで,非構造的および構造的スパース対向摂動に対するモデルの頑健さを包括的かつ確実に評価する。
さらに,Sparse-PGDの効率性により,種々のスパース摂動に対して頑健なモデルを構築するための対向訓練を行うことができる。
大規模な実験により,提案手法は様々なシナリオにおいて高い性能を示すことが示された。
さらに重要なことは、他のロバストモデルと比較して、我々の敵対的に訓練されたモデルは、様々なスパース攻撃に対する最先端のロバスト性を示す。
関連論文リスト
- Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Reducing Adversarial Training Cost with Gradient Approximation [0.3916094706589679]
そこで本研究では,厳密なモデル構築に要するコストを削減するために,GAAT(グラディエント近似)を用いた対戦訓練法を提案する。
提案手法は,データセット上でのモデルテスト精度に比較して,トレーニング時間の最大60%を節約する。
論文 参考訳(メタデータ) (2023-09-18T03:55:41Z) - SegPGD: An Effective and Efficient Adversarial Attack for Evaluating and
Boosting Segmentation Robustness [63.726895965125145]
ディープニューラルネットワークに基づく画像分類は、敵の摂動に弱い。
本研究では,SegPGDと呼ばれる効果的かつ効率的なセグメンテーション攻撃手法を提案する。
SegPGDはより効果的な敵の例を生成することができるため、SegPGDを用いた敵の訓練はセグメントモデルの堅牢性を高めることができる。
論文 参考訳(メタデータ) (2022-07-25T17:56:54Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Towards Compositional Adversarial Robustness: Generalizing Adversarial
Training to Composite Semantic Perturbations [70.05004034081377]
まず,合成逆数例を生成する新しい手法を提案する。
本手法は, コンポーネントワイド射影勾配勾配を利用して最適攻撃組成を求める。
次に,モデルロバスト性を$ell_p$-ballから複合意味摂動へ拡張するための一般化逆トレーニング(GAT)を提案する。
論文 参考訳(メタデータ) (2022-02-09T02:41:56Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z) - Luring of transferable adversarial perturbations in the black-box
paradigm [0.0]
我々は、ブラックボックス転送攻撃に対するモデルの堅牢性を改善するための新しいアプローチを提案する。
除去可能な追加ニューラルネットワークが対象モデルに含まれており、テクスチャリング効果を誘導するように設計されている。
提案手法は,対象モデルの予測にのみアクセス可能であり,ラベル付きデータセットを必要としない。
論文 参考訳(メタデータ) (2020-04-10T06:48:36Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。