論文の概要: Understanding Frank-Wolfe Adversarial Training
- arxiv url: http://arxiv.org/abs/2012.12368v2
- Date: Mon, 8 Feb 2021 17:38:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 09:13:34.478978
- Title: Understanding Frank-Wolfe Adversarial Training
- Title(参考訳): Frank-Wolfe Adversarial Training の理解
- Authors: Theodoros Tsiligkaridis, Jay Roberts
- Abstract要約: Adversarial Training(AT)は、最悪のケースの損失を最小限に抑えるために、堅牢な最適化問題を解決する技術です。
frank-wolfe adversarial trainingアプローチが提示され、pgd-atのような競争力レベルの堅牢性を提供する。
- 参考スコア(独自算出の注目度): 1.2183405753834557
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks are easily fooled by small perturbations known as
adversarial attacks. Adversarial Training (AT) is a technique that
approximately solves a robust optimization problem to minimize the worst-case
loss and is widely regarded as the most effective defense against such attacks.
While projected gradient descent (PGD) has received most attention for
approximately solving the inner maximization of AT, Frank-Wolfe (FW)
optimization is projection-free and can be adapted to any $\ell_p$ norm. A
Frank-Wolfe adversarial training approach is presented and is shown to provide
as competitive level of robustness as PGD-AT for a variety of architectures,
attacks, and datasets. Exploiting a representation of the FW attack we are able
to derive the geometric insight that: The larger the $\ell_2$ norm of an
$\ell_\infty$ attack is, the less loss gradient variation there is. It is then
experimentally demonstrated that $\ell_\infty$ attacks against robust models
achieve near the maximal possible $\ell_2$ distortion, providing a new lens
into the specific type of regularization that AT bestows. Using FW optimization
in conjunction with robust models, we are able to generate sparse
human-interpretable counterfactual explanations without relying on expensive
$\ell_1$ projections.
- Abstract(参考訳): ディープニューラルネットワークは、敵攻撃として知られる小さな摂動によって容易に騙される。
敵対的訓練(adversarial training, at)は、最悪の場合の損失を最小限に抑えるためのロバストな最適化問題を概ね解決する手法であり、このような攻撃に対して最も効果的な防御策と考えられている。
射影勾配降下(PGD)は、ATの内部最大化をほぼ解くために最も注目されているが、FW(Frank-Wolfe)最適化はプロジェクションフリーであり、任意の$\ell_p$ノルムに適応できる。
さまざまなアーキテクチャ、アタック、データセットに対して、PGD-ATと競合するロバストネスのレベルを提供するFrank-Wolfe対逆トレーニングアプローチが提示され、示されている。
fw攻撃の表現を利用することで、幾何学的洞察を導出することができる:$\ell_\infty$攻撃の$\ell_2$ノルムが大きいほど、損失勾配の変化は少なくなる。
実験により、ロバストモデルに対する$\ell_\infty$攻撃は、可能な限り$\ell_2$歪みに近いものとなり、ATが与える特定の正則化に新しいレンズを与える。
fw最適化を頑健なモデルと組み合わせることで、高価な$\ell_1$プロジェクションに頼ることなく、人間の解釈可能な反事実的説明をスパースできる。
関連論文リスト
- Deep Adversarial Defense Against Multilevel-Lp Attacks [5.604868766260297]
本稿では,EMRC法 (Efficient Robust Mode Connectivity) と呼ばれる,計算効率の良いマルチレベル$ell_p$ディフェンスを提案する。
連続最適化で用いられる解析的継続アプローチと同様に、この手法は2つの$p$特化逆最適化モデルをブレンドする。
我々は,AT-$ell_infty$,E-AT,MSDと比較して,本手法が様々な攻撃に対して優れていることを示す実験を行った。
論文 参考訳(メタデータ) (2024-07-12T13:30:00Z) - Advancing Generalized Transfer Attack with Initialization Derived Bilevel Optimization and Dynamic Sequence Truncation [49.480978190805125]
転送攻撃はブラックボックスアプリケーションに大きな関心を惹きつける。
既存の作業は、本質的に単一のレベルの目的 w.r.t. シュロゲートモデルを直接最適化する。
本稿では,上位レベル(UL)と下位レベル(LL)のサロゲート攻撃とのネスト関係を明示的に再構築する2レベル最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T07:45:27Z) - $σ$-zero: Gradient-based Optimization of $\ell_0$-norm Adversarial Examples [14.17412770504598]
入力摂動の作成には$ell_infty$-normの制約が使用できることを示す。
我々は $sigma$-norm と呼ばれる新しい $ell_infty$-norm 攻撃を提案する。
これは、成功、サイズ、効率の点で競合するすべての敵攻撃を上回っます。
論文 参考訳(メタデータ) (2024-02-02T20:08:11Z) - Towards Alternative Techniques for Improving Adversarial Robustness:
Analysis of Adversarial Training at a Spectrum of Perturbations [5.18694590238069]
逆行訓練(AT)とその変種は、逆行性摂動に対するニューラルネットワークの堅牢性を改善する進歩を先導している。
私たちは、$epsilon$の値のスペクトルに基づいてトレーニングされたモデルに焦点を当てています。
ATの代替改善は、そうでなければ1ドル(約1万2000円)も出なかったでしょう。
論文 参考訳(メタデータ) (2022-06-13T22:01:21Z) - Towards Compositional Adversarial Robustness: Generalizing Adversarial
Training to Composite Semantic Perturbations [70.05004034081377]
まず,合成逆数例を生成する新しい手法を提案する。
本手法は, コンポーネントワイド射影勾配勾配を利用して最適攻撃組成を求める。
次に,モデルロバスト性を$ell_p$-ballから複合意味摂動へ拡張するための一般化逆トレーニング(GAT)を提案する。
論文 参考訳(メタデータ) (2022-02-09T02:41:56Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - PDPGD: Primal-Dual Proximal Gradient Descent Adversarial Attack [92.94132883915876]
最先端のディープニューラルネットワークは、小さな入力摂動に敏感である。
対向騒音に対するロバスト性を改善するための多くの防御法が提案されている。
敵の強靭さを評価することは 極めて困難であることが分かりました
論文 参考訳(メタデータ) (2021-06-03T01:45:48Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - Towards Defending Multiple $\ell_p$-norm Bounded Adversarial
Perturbations via Gated Batch Normalization [120.99395850108422]
既存の敵防衛は、個々の摂動に対するモデル堅牢性を改善するのが一般的である。
最近の手法では、複数の$ell_p$球における敵攻撃に対するモデルロバスト性を改善するが、各摂動型に対するそれらの性能は、まだ十分ではない。
我々は,複数の$ell_pの有界摂動を守るために,摂動不変予測器を逆向きに訓練するGated Batch Normalization (GBN)を提案する。
論文 参考訳(メタデータ) (2020-12-03T02:26:01Z) - Stronger and Faster Wasserstein Adversarial Attacks [25.54761631515683]
ディープモデルは、敵攻撃として知られる「小さく、知覚不能な」摂動に対して脆弱である。
我々は、より強力な射影勾配攻撃を可能にするために、正確かつ効率的なプロジェクション演算子を開発する。
また、適当な線形最小化オラクルを備えたフランク=ウルフ法は、ワッサーシュタインの制約の下で極めて高速に機能することを示した。
論文 参考訳(メタデータ) (2020-08-06T21:36:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。