論文の概要: Bridging the Performance Gap between FGSM and PGD Adversarial Training
- arxiv url: http://arxiv.org/abs/2011.05157v1
- Date: Sat, 7 Nov 2020 09:08:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 22:24:25.768664
- Title: Bridging the Performance Gap between FGSM and PGD Adversarial Training
- Title(参考訳): fgsmとpgdの対向訓練におけるパフォーマンスギャップの橋渡し
- Authors: Tianjin Huang, Vlado Menkovski, Yulong Pei, Mykola Pechenizkiy
- Abstract要約: 適度な順行性攻撃(adv.PGD)による逆行訓練は、適度な逆行性を達成するための最も効果的な方法の1つであると考えられている。
我々は adv.FGSM を拡張して adv.PGD の対角的堅牢性を実現する。
実験の結果, adv.FGSMR は adv.PGD よりも訓練効率が高いことがわかった。
- 参考スコア(独自算出の注目度): 12.99941371793082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning achieves state-of-the-art performance in many tasks but exposes
to the underlying vulnerability against adversarial examples. Across existing
defense techniques, adversarial training with the projected gradient decent
attack (adv.PGD) is considered as one of the most effective ways to achieve
moderate adversarial robustness. However, adv.PGD requires too much training
time since the projected gradient attack (PGD) takes multiple iterations to
generate perturbations. On the other hand, adversarial training with the fast
gradient sign method (adv.FGSM) takes much less training time since the fast
gradient sign method (FGSM) takes one step to generate perturbations but fails
to increase adversarial robustness. In this work, we extend adv.FGSM to make it
achieve the adversarial robustness of adv.PGD. We demonstrate that the large
curvature along FGSM perturbed direction leads to a large difference in
performance of adversarial robustness between adv.FGSM and adv.PGD, and
therefore propose combining adv.FGSM with a curvature regularization
(adv.FGSMR) in order to bridge the performance gap between adv.FGSM and
adv.PGD. The experiments show that adv.FGSMR has higher training efficiency
than adv.PGD. In addition, it achieves comparable performance of adversarial
robustness on MNIST dataset under white-box attack, and it achieves better
performance than adv.PGD under white-box attack and effectively defends the
transferable adversarial attack on CIFAR-10 dataset.
- Abstract(参考訳): ディープラーニングは多くのタスクで最先端のパフォーマンスを達成するが、敵の例に対して基盤となる脆弱性を露呈する。
既存の防御技術全体では、投射された緩やかな攻撃(adv.PGD)による敵の訓練は、適度な敵の堅牢性を達成するための最も効果的な方法の1つであると考えられている。
しかし、adv.pgdは、摂動を生成するのに複数のイテレーションを必要とするため、トレーニング時間が多すぎる。
一方、高速勾配符号法(adv.FGSM)による対向訓練は、高速勾配符号法(FGSM)が摂動を発生させる一方、対向ロバスト性の向上には失敗するため、訓練時間が大幅に短縮される。
本稿では,Adv.FGSMを拡張して,Adv.PGDの対角的堅牢性を実現する。
本稿では, FGSM の摂動方向に沿った大きな曲率によって, adv.FGSM と adv.PGD の対角ロバスト性に大きな差が生じることを実証し, それによって adv.FGSM と adv.PGD の演奏ギャップを埋めるために, adv.FGSM と曲率正規化(adv.FGSMR)を組み合わせることを提案する。
実験の結果, adv.FGSMR は adv.PGD よりも訓練効率が高いことがわかった。
さらに、ホワイトボックス攻撃下ではMNISTデータセットの対向ロバスト性を同等に発揮し、ホワイトボックス攻撃時のadv.PGDよりも優れたパフォーマンスを実現し、CIFAR-10データセットに対する転送可能な対向アタックを効果的に防御する。
関連論文リスト
- Low-Rank Adversarial PGD Attack [4.8060720224247735]
Projected Gradient Descentはコンピュータビジョンにおいて広く採用されている手法である。
低ランク攻撃を効率的に計算するPGDのバリエーションを提案する。
低ランクのPGDは、従来のフルランクのPGD攻撃と互換性があり、時には相容れない。
論文 参考訳(メタデータ) (2024-10-16T14:24:51Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Towards Efficient Training and Evaluation of Robust Models against $l_0$ Bounded Adversarial Perturbations [2.6939688467517384]
スパース・PGDと呼ばれるホワイトボックスのPGDライクな攻撃法を提案し,スパース摂動を生成する。
スパースPGDとブラックボックス攻撃を組み合わせてモデルの堅牢性を評価する。
我々の逆行訓練されたモデルは、様々なスパース攻撃に対する最先端の堅牢性を示す。
論文 参考訳(メタデータ) (2024-05-08T14:18:13Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - SegPGD: An Effective and Efficient Adversarial Attack for Evaluating and
Boosting Segmentation Robustness [63.726895965125145]
ディープニューラルネットワークに基づく画像分類は、敵の摂動に弱い。
本研究では,SegPGDと呼ばれる効果的かつ効率的なセグメンテーション攻撃手法を提案する。
SegPGDはより効果的な敵の例を生成することができるため、SegPGDを用いた敵の訓練はセグメントモデルの堅牢性を高めることができる。
論文 参考訳(メタデータ) (2022-07-25T17:56:54Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Guided Interpolation for Adversarial Training [73.91493448651306]
トレーニングが進むにつれて、トレーニングデータは徐々に攻撃しやすくなり、堅牢性の向上が損なわれる。
本稿では,前時代のメタ情報を用いて,データの逆変換をガイドするguided framework(gif)を提案する。
バニラミキサアップと比較すると、GIFは攻撃可能なデータの比率を高くすることができ、堅牢性向上に有効である。
論文 参考訳(メタデータ) (2021-02-15T03:55:08Z) - Robust Single-step Adversarial Training with Regularizer [11.35007968593652]
本稿では,PGD正規化を用いた高速勾配符号法(FGSMPR)を提案する。
実験により,提案手法はFGSM対向学習を用いたL$_infty$-perturbationsのための頑健な深層ネットワークを訓練可能であることが示された。
論文 参考訳(メタデータ) (2021-02-05T19:07:10Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。