論文の概要: Adaptive Smoothness-weighted Adversarial Training for Multiple
Perturbations with Its Stability Analysis
- arxiv url: http://arxiv.org/abs/2210.00557v1
- Date: Sun, 2 Oct 2022 15:42:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 16:28:49.170493
- Title: Adaptive Smoothness-weighted Adversarial Training for Multiple
Perturbations with Its Stability Analysis
- Title(参考訳): 複数の摂動に対する適応的滑らか度重み付き対向訓練とその安定性解析
- Authors: Jiancong Xiao, Zeyu Qin, Yanbo Fan, Baoyuan Wu, Jue Wang, Zhi-Quan Luo
- Abstract要約: 対人訓練(Adrial Training:AT)は、敵の事例に対して最も効果的な方法の1つとして実証されている。
異なる摂動型に対する対向ロバスト性を一般化するために、多重摂動(ATMP)のアドリナルトレーニングを提案する。
安定性に基づく過剰リスク境界を開発し、複数の摂動に対する適応重み付き対向トレーニングを提案する。
- 参考スコア(独自算出の注目度): 39.90487314421744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial Training (AT) has been demonstrated as one of the most effective
methods against adversarial examples. While most existing works focus on AT
with a single type of perturbation e.g., the $\ell_\infty$ attacks), DNNs are
facing threats from different types of adversarial examples. Therefore,
adversarial training for multiple perturbations (ATMP) is proposed to
generalize the adversarial robustness over different perturbation types (in
$\ell_1$, $\ell_2$, and $\ell_\infty$ norm-bounded perturbations). However, the
resulting model exhibits trade-off between different attacks. Meanwhile, there
is no theoretical analysis of ATMP, limiting its further development. In this
paper, we first provide the smoothness analysis of ATMP and show that $\ell_1$,
$\ell_2$, and $\ell_\infty$ adversaries give different contributions to the
smoothness of the loss function of ATMP. Based on this, we develop the
stability-based excess risk bounds and propose adaptive smoothness-weighted
adversarial training for multiple perturbations. Theoretically, our algorithm
yields better bounds. Empirically, our experiments on CIFAR10 and CIFAR100
achieve the state-of-the-art performance against the mixture of multiple
perturbations attacks.
- Abstract(参考訳): 対人訓練(AT)は、敵の事例に対して最も効果的な方法の1つとして実証されている。
既存のほとんどの作業は、1種類の摂動(例えば$\ell_\infty$攻撃)に焦点を当てているが、dnnは様々なタイプの敵からの脅威に直面している。
したがって、異なる摂動型($\ell_1$, $\ell_2$, $\ell_\infty$ノルム有界摂動)に対する対角的強靭性を一般化するために、多重摂動(ATMP)に対する対角的トレーニングを提案する。
しかし、結果として生じるモデルは異なる攻撃の間のトレードオフを示す。
一方、ATMPの理論的解析は行われておらず、さらなる発展を制限している。
本稿では、まずATMPの滑らかさ解析を行い、$\ell_1$, $\ell_2$, $\ell_\infty$がATMPの損失関数の滑らかさに異なる寄与を与えることを示す。
そこで我々は,安定性に基づく過剰リスク境界を開発し,複数の摂動に対する適応的滑らか度重み付き対向トレーニングを提案する。
理論的には、我々のアルゴリズムはより良い境界をもたらす。
CIFAR10とCIFAR100の実験は、複数の摂動攻撃の混合に対して最先端の性能を達成する。
関連論文リスト
- Deep Adversarial Defense Against Multilevel-Lp Attacks [5.604868766260297]
本稿では,EMRC法 (Efficient Robust Mode Connectivity) と呼ばれる,計算効率の良いマルチレベル$ell_p$ディフェンスを提案する。
連続最適化で用いられる解析的継続アプローチと同様に、この手法は2つの$p$特化逆最適化モデルをブレンドする。
我々は,AT-$ell_infty$,E-AT,MSDと比較して,本手法が様々な攻撃に対して優れていることを示す実験を行った。
論文 参考訳(メタデータ) (2024-07-12T13:30:00Z) - $σ$-zero: Gradient-based Optimization of $\ell_0$-norm Adversarial Examples [14.17412770504598]
入力摂動の作成には$ell_infty$-normの制約が使用できることを示す。
我々は $sigma$-norm と呼ばれる新しい $ell_infty$-norm 攻撃を提案する。
これは、成功、サイズ、効率の点で競合するすべての敵攻撃を上回っます。
論文 参考訳(メタデータ) (2024-02-02T20:08:11Z) - Parameter-Saving Adversarial Training: Reinforcing Multi-Perturbation
Robustness via Hypernetworks [47.21491911505409]
敵の訓練は、敵の摂動から守る最もポピュラーで効果的な方法の1つである。
本稿では,多摂動頑健性を高めるために,新しい多摂動対向トレーニングフレームワークであるパラメータセービング対向トレーニング(PSAT)を提案する。
論文 参考訳(メタデータ) (2023-09-28T07:16:02Z) - A Practical Upper Bound for the Worst-Case Attribution Deviations [21.341303776931532]
モデル属性は、複雑なモデルに対する解釈可能性において、ディープニューラルネットワーク(DNN)の重要な構成要素である。
近年の研究では、属性が異なる類似画像を生成する属性攻撃に弱いため、属性手法の安全性に注意が向けられている。
既存の研究はこれらの攻撃に対するDNNの堅牢性を実証的に改善している。
この研究において、制約付き最適化問題を初めて定式化し、ある領域内の雑音によってサンプルが摂動した後の属性の最大の相違を測る上限を導出する。
論文 参考訳(メタデータ) (2023-03-01T09:07:27Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Towards Defending Multiple $\ell_p$-norm Bounded Adversarial
Perturbations via Gated Batch Normalization [120.99395850108422]
既存の敵防衛は、個々の摂動に対するモデル堅牢性を改善するのが一般的である。
最近の手法では、複数の$ell_p$球における敵攻撃に対するモデルロバスト性を改善するが、各摂動型に対するそれらの性能は、まだ十分ではない。
我々は,複数の$ell_pの有界摂動を守るために,摂動不変予測器を逆向きに訓練するGated Batch Normalization (GBN)を提案する。
論文 参考訳(メタデータ) (2020-12-03T02:26:01Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z) - Toward Adversarial Robustness via Semi-supervised Robust Training [93.36310070269643]
アドリラルな例は、ディープニューラルネットワーク(DNN)に対する深刻な脅威であることが示されている。
R_stand$ と $R_rob$ の2つの異なるリスクを共同で最小化することで、新しい防御手法であるロバストトレーニング(RT)を提案する。
論文 参考訳(メタデータ) (2020-03-16T02:14:08Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。