論文の概要: Towards Understanding Fast Adversarial Training
- arxiv url: http://arxiv.org/abs/2006.03089v1
- Date: Thu, 4 Jun 2020 18:19:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 09:34:17.717442
- Title: Towards Understanding Fast Adversarial Training
- Title(参考訳): 高速対人訓練の理解に向けて
- Authors: Bai Li, Shiqi Wang, Suman Jana, Lawrence Carin
- Abstract要約: 高速対人訓練の振る舞いを理解するために実験を行う。
その成功の鍵は、過度な適合から弱い攻撃への回復能力である。
- 参考スコア(独自算出の注目度): 91.8060431517248
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current neural-network-based classifiers are susceptible to adversarial
examples. The most empirically successful approach to defending against such
adversarial examples is adversarial training, which incorporates a strong
self-attack during training to enhance its robustness. This approach, however,
is computationally expensive and hence is hard to scale up. A recent work,
called fast adversarial training, has shown that it is possible to markedly
reduce computation time without sacrificing significant performance. This
approach incorporates simple self-attacks, yet it can only run for a limited
number of training epochs, resulting in sub-optimal performance. In this paper,
we conduct experiments to understand the behavior of fast adversarial training
and show the key to its success is the ability to recover from overfitting to
weak attacks. We then extend our findings to improve fast adversarial training,
demonstrating superior robust accuracy to strong adversarial training, with
much-reduced training time.
- Abstract(参考訳): 現在のニューラルネットワークベースの分類器は、逆向きの例に影響を受けやすい。
このような敵対的な例に対して最も実証的に成功したアプローチは、その堅牢性を高めるためにトレーニング中に強い自己攻撃を組み込んだ、敵対的トレーニングである。
しかし、このアプローチは計算に高価であるため、スケールアップは困難である。
最近の研究は高速対人訓練と呼ばれ、大幅な性能を犠牲にすることなく計算時間を著しく短縮できることを示した。
このアプローチには単純な自己攻撃が組み込まれていますが、限られた数のトレーニング期間でしか実行できません。
本稿では,高速対向訓練の行動を理解するための実験を行い,その成功の鍵は,過剰フィッティングから弱い攻撃への回復能力であることを示す。
結果より, 高速対人訓練を改良し, 強い対人訓練に優れた堅牢な精度を示し, 学習時間を大幅に短縮した。
関連論文リスト
- Revisiting and Exploring Efficient Fast Adversarial Training via LAW:
Lipschitz Regularization and Auto Weight Averaging [73.78965374696608]
本研究では,10以上の高速対人訓練法について,対人ロバスト性およびトレーニングコストの観点から検討した。
破滅的オーバーフィッティング防止のための高速対人訓練手法の有効性と有効性を再考する。
リプシッツ正規化とオートウェイト平均化を備えたFGSMに基づく高速対向訓練手法を提案する。
論文 参考訳(メタデータ) (2023-08-22T13:50:49Z) - Improved Adversarial Training Through Adaptive Instance-wise Loss
Smoothing [5.1024659285813785]
敵の訓練は、このような敵の攻撃に対する最も成功した防御であった。
本稿では,新たな対人訓練手法を提案する。
本手法は,$ell_infty$-norm制約攻撃に対する最先端のロバスト性を実現する。
論文 参考訳(メタデータ) (2023-03-24T15:41:40Z) - Adversarial Coreset Selection for Efficient Robust Training [11.510009152620666]
トレーニングデータの小さなサブセットを選択することは、堅牢なトレーニングの時間的複雑さを軽減するための原則的なアプローチを提供する方法を示す。
本手法が敵の訓練を2~3回高速化することを示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-09-13T07:37:53Z) - Collaborative Adversarial Training [82.25340762659991]
本研究は, 対人的, 良性的な両例とほぼ区別できない, 協調的な事例が, 対人的訓練の強化に有効であることを示す。
そこで,コラボレーティブ・ディベザリ・トレーニング(CoAT)と呼ばれる新しい手法が提案され,新たな最先端技術が実現された。
論文 参考訳(メタデータ) (2022-05-23T09:41:41Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Enhancing Adversarial Robustness for Deep Metric Learning [77.75152218980605]
深層学習モデルの対角的堅牢性を改善する必要がある。
過度にハードな例によるモデル崩壊を避けるため、既存の守備隊はmin-max対逆訓練を中止した。
本研究では, 対人訓練において, 一定の硬度までトレーニング三重奏を効率よく摂動させる硬度操作を提案する。
論文 参考訳(メタデータ) (2022-03-02T22:27:44Z) - $\ell_\infty$-Robustness and Beyond: Unleashing Efficient Adversarial
Training [11.241749205970253]
トレーニングデータの小さなサブセットを選択することで、堅牢なトレーニングの時間的複雑さを軽減するための、より原則的なアプローチが実現されることを示す。
本手法は,クリーンかつロバストな精度をわずかに低下させながら,敵のトレーニングを2~3倍高速化する。
論文 参考訳(メタデータ) (2021-12-01T09:55:01Z) - Gradient-Guided Dynamic Efficient Adversarial Training [6.980357450216633]
敵意の強い攻撃に耐えられる強固なディープニューラルネットワークを訓練する上で、敵意のトレーニングは効果的だが時間がかかります。
本研究では, 動的適応学習(DEAT, Dynamic Efficient Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2021-03-04T14:57:53Z) - Improving the affordability of robustness training for DNNs [11.971637253035107]
逆行訓練の初期段階は冗長であり、計算効率を大幅に向上させる自然な訓練に置き換えることができることを示す。
提案手法は, 各種敵攻撃の強みに対するモデルテスト精度と一般化により, 最大2.5倍の訓練時間を短縮できることを示す。
論文 参考訳(メタデータ) (2020-02-11T07:29:45Z) - Efficient Adversarial Training with Transferable Adversarial Examples [58.62766224452761]
同じトレーニングプロセスにおいて、近隣のエポックからのモデル間で高い転送可能性があることが示される。
本稿では,ATTA(Adversarial Training with Transferable Adversarial Examples)を提案する。
論文 参考訳(メタデータ) (2019-12-27T03:05:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。