論文の概要: Deep Adversarial Defense Against Multilevel-Lp Attacks
- arxiv url: http://arxiv.org/abs/2407.09251v1
- Date: Fri, 12 Jul 2024 13:30:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-07-15 23:28:21.012614
- Title: Deep Adversarial Defense Against Multilevel-Lp Attacks
- Title(参考訳): 多レベルLp攻撃に対する深層防御
- Authors: Ren Wang, Yuxuan Li, Alfred Hero,
- Abstract要約: 本稿では,EMRC法 (Efficient Robust Mode Connectivity) と呼ばれる,計算効率の良いマルチレベル$ell_p$ディフェンスを提案する。
連続最適化で用いられる解析的継続アプローチと同様に、この手法は2つの$p$特化逆最適化モデルをブレンドする。
我々は,AT-$ell_infty$,E-AT,MSDと比較して,本手法が様々な攻撃に対して優れていることを示す実験を行った。
- 参考スコア(独自算出の注目度): 5.604868766260297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models have shown considerable vulnerability to adversarial attacks, particularly as attacker strategies become more sophisticated. While traditional adversarial training (AT) techniques offer some resilience, they often focus on defending against a single type of attack, e.g., the $\ell_\infty$-norm attack, which can fail for other types. This paper introduces a computationally efficient multilevel $\ell_p$ defense, called the Efficient Robust Mode Connectivity (EMRC) method, which aims to enhance a deep learning model's resilience against multiple $\ell_p$-norm attacks. Similar to analytical continuation approaches used in continuous optimization, the method blends two $p$-specific adversarially optimal models, the $\ell_1$- and $\ell_\infty$-norm AT solutions, to provide good adversarial robustness for a range of $p$. We present experiments demonstrating that our approach performs better on various attacks as compared to AT-$\ell_\infty$, E-AT, and MSD, for datasets/architectures including: CIFAR-10, CIFAR-100 / PreResNet110, WideResNet, ViT-Base.
- Abstract(参考訳): ディープラーニングモデルは、特に攻撃戦略が高度化するにつれて、敵の攻撃に対して重大な脆弱性を示す。
従来の敵対的トレーニング(AT)技術はレジリエンスを提供するが、多くの場合、他のタイプで失敗する可能性のある、単一のタイプの攻撃、例えば$\ell_\infty$-norm攻撃に対する防御に重点を置いている。
本稿では,複数の$\ell_p$-norm攻撃に対するディープラーニングモデルのレジリエンスを高めることを目的とした,EMRC(Efficient Robust Mode Connectivity)法という,計算効率のよいマルチレベル$\ell_p$ディフェンスを提案する。
連続最適化で用いられる解析的連続アプローチと同様に、この手法は2つの$p$固有の逆最適モデル、$\ell_1$-と$\ell_\infty$-norm ATの解をブレンドし、$p$の範囲で良好な逆堅牢性を提供する。
我々は,CIFAR-10, CIFAR-100 / PreResNet110, WideResNet, ViT-Baseを含むデータセット/アーキテクチャに対して,AT-$\ell_\infty$, E-AT, MSDと比較して,本手法が様々な攻撃に対して優れていることを示す実験を行った。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Parameter-Saving Adversarial Training: Reinforcing Multi-Perturbation
Robustness via Hypernetworks [47.21491911505409]
敵の訓練は、敵の摂動から守る最もポピュラーで効果的な方法の1つである。
本稿では,多摂動頑健性を高めるために,新しい多摂動対向トレーニングフレームワークであるパラメータセービング対向トレーニング(PSAT)を提案する。
論文 参考訳(メタデータ) (2023-09-28T07:16:02Z) - Robust Mode Connectivity-Oriented Adversarial Defense: Enhancing Neural
Network Robustness Against Diversified $\ell_p$ Attacks [14.895924092336141]
敵のロバスト性は、ニューラルネットワークが推論フェーズ中に敵の攻撃を防御する能力を測定する上で重要な概念である。
近年の研究では、1種類の攻撃に対して敵の堅牢性を改善することに成功したにもかかわらず、モデルはまだ$ell_p$攻撃の多様化に弱いことが示されている。
本稿では,2つの集団学習フェーズを含む,RMC指向の新たな対角防御手法を提案する。
論文 参考訳(メタデータ) (2023-03-17T19:49:10Z) - Towards Compositional Adversarial Robustness: Generalizing Adversarial
Training to Composite Semantic Perturbations [70.05004034081377]
まず,合成逆数例を生成する新しい手法を提案する。
本手法は, コンポーネントワイド射影勾配勾配を利用して最適攻撃組成を求める。
次に,モデルロバスト性を$ell_p$-ballから複合意味摂動へ拡張するための一般化逆トレーニング(GAT)を提案する。
論文 参考訳(メタデータ) (2022-02-09T02:41:56Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Robustifying $\ell_\infty$ Adversarial Training to the Union of
Perturbation Models [120.71277007016708]
我々は、広く普及しているシングルアタック$ell_infty$ ATフレームワークの機能を拡張する。
我々の手法はSNAP(Noss Augmented Processing)と呼ばれ、単一攻撃ATフレームワークの優れた副産物を利用する。
SNAPは、標準的なシングルアタックATを用いて、ネットワークパラメータとともに分布を学習する形状のノイズ増強層を持つ、与えられたディープネットをプリペイドする。
論文 参考訳(メタデータ) (2021-05-31T05:18:42Z) - Adversarial robustness against multiple $l_p$-threat models at the price
of one and how to quickly fine-tune robust models to another threat model [79.05253587566197]
対向的堅牢性を実現するために, 対向的トレーニング (AT) を単一$l_p$-threatモデルで行うことが広く議論されている。
本稿では,$l_p$-threatモデルの結合に対する対角的ロバスト性を実現するための,シンプルで効率的なトレーニング手法を開発する。
論文 参考訳(メタデータ) (2021-05-26T12:20:47Z) - Understanding Frank-Wolfe Adversarial Training [1.2183405753834557]
Adversarial Training(AT)は、最悪のケースの損失を最小限に抑えるために、堅牢な最適化問題を解決する技術です。
frank-wolfe adversarial trainingアプローチが提示され、pgd-atのような競争力レベルの堅牢性を提供する。
論文 参考訳(メタデータ) (2020-12-22T21:36:52Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。