論文の概要: Case-Aware Adversarial Training
- arxiv url: http://arxiv.org/abs/2204.09398v2
- Date: Wed, 30 Aug 2023 08:18:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 18:24:45.269948
- Title: Case-Aware Adversarial Training
- Title(参考訳): ケースアウェアadversarial training (特集 ケースアウェアadversarial training)
- Authors: Mingyuan Fan, Yang Liu, Cen Chen
- Abstract要約: 敵の訓練(AT)は、敵の例(AE)を守る最も効果的な方法と考えられている。
Case-Aware Adversarial Training (CAT)は、汎用的で効率的なAT改善スキームである。
CATはバニラATよりも最大3倍速く、競争力のある防御効果を達成できる。
- 参考スコア(独自算出の注目度): 23.52109746711528
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The neural network (NN) becomes one of the most heated type of models in
various signal processing applications. However, NNs are extremely vulnerable
to adversarial examples (AEs). To defend AEs, adversarial training (AT) is
believed to be the most effective method while due to the intensive
computation, AT is limited to be applied in most applications. In this paper,
to resolve the problem, we design a generic and efficient AT improvement
scheme, namely case-aware adversarial training (CAT). Specifically, the
intuition stems from the fact that a very limited part of informative samples
can contribute to most of model performance. Alternatively, if only the most
informative AEs are used in AT, we can lower the computation complexity of AT
significantly as maintaining the defense effect. To achieve this, CAT achieves
two breakthroughs. First, a method to estimate the information degree of
adversarial examples is proposed for AE filtering. Second, to further enrich
the information that the NN can obtain from AEs, CAT involves a weight
estimation and class-level balancing based sampling strategy to increase the
diversity of AT at each iteration. Extensive experiments show that CAT is
faster than vanilla AT by up to 3x while achieving competitive defense effect.
- Abstract(参考訳): ニューラルネットワーク(NN)は、様々な信号処理アプリケーションにおいて最も加熱されたモデルの1つである。
しかし、NNは敵の例(AE)に対して極めて脆弱である。
AEs を守るために,AT は計算量が多いため,ほとんどのアプリケーションにおいて適用が制限される一方で,最も効果的な手法であると考えられている。
本稿では,この問題を解決するために,汎用的で効率的なAT改善スキーム,すなわちケースアウェア・逆行訓練(CAT)を設計する。
特に直観は、情報的なサンプルの非常に限られた部分がモデルのパフォーマンスのほとんどに寄与できるという事実に起因している。
あるいは、最も情報性の高いAEがATでのみ使用される場合、防御効果を維持するため、ATの計算複雑性を著しく低下させることができる。
これを達成するために、CATは2つのブレークスルーを達成する。
まず, aeフィルタリングにおいて, 逆例の情報度を推定する手法を提案する。
第2に、NNがAEから得られる情報をさらに強化するために、CATは各イテレーションにおけるATの多様性を高めるために、重み推定とクラスレベルのバランスに基づくサンプリング戦略を含む。
広範囲な実験により、猫はバニラよりも最大3倍高速で防御効果を発揮できることが示された。
関連論文リスト
- Adaptive Batch Normalization Networks for Adversarial Robustness [33.14617293166724]
敵防衛訓練(Adversarial Training、AT)は、現代の敵防衛の標準的基盤である。
テスト時間領域適応の最近の進歩に触発された適応バッチ正規化ネットワーク(ABNN)を提案する。
ABNNは、デジタルおよび物理的に実現可能な攻撃に対する敵の堅牢性を一貫して改善する。
論文 参考訳(メタデータ) (2024-05-20T00:58:53Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Fast Adversarial Training with Adaptive Step Size [62.37203478589929]
トレーニングインスタンスの観点から,この現象を考察する。
適応ステップサイズ(ATAS)を用いた逆学習法を提案する。
ATASは、その勾配ノルムに逆比例するインスタンス順応的なステップサイズを学習する。
論文 参考訳(メタデータ) (2022-06-06T08:20:07Z) - Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z) - Revisiting and Advancing Fast Adversarial Training Through The Lens of
Bi-Level Optimization [60.72410937614299]
提案手法は,2レベルAT(FAST-BAT)と呼ばれる新しいアルゴリズムセットの設計と解析である。
FAST-BATは、グラデーションサインメソッドや明示的なロバスト正規化を呼ぶことなく、符号ベースの投射降下(PGD)攻撃を防御することができる。
論文 参考訳(メタデータ) (2021-12-23T06:25:36Z) - Boosting Fast Adversarial Training with Learnable Adversarial
Initialization [79.90495058040537]
対人訓練(AT)は、対人訓練の例を活用することにより、モデルロバスト性を改善するのに有効であることが示されている。
トレーニング効率を向上させるため,高速AT法では1回だけ勾配を計算することにより高速勾配符号法(FGSM)が採用されている。
論文 参考訳(メタデータ) (2021-10-11T05:37:00Z) - Consistency Regularization for Adversarial Robustness [88.65786118562005]
adversarial trainingは、ディープニューラルネットワークの敵対的堅牢性を得るために最も成功した方法の1つである。
しかし、ATから得られる堅牢性の大幅な一般化ギャップは問題視されている。
本稿では,この問題に対処するためにデータ拡張手法について検討する。
論文 参考訳(メタデータ) (2021-03-08T09:21:41Z) - Generating Adversarial Inputs Using A Black-box Differential Technique [10.062802463541951]
悪意のあるエージェントは、入力を他のエージェントに摂動させることで敵攻撃を開始する。
逆入力生成のための最初のブラックボックス差分法であるDAEGENを提案する。
実験の結果,DAEGENは最先端のブラックボックス攻撃法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-07-10T11:25:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。