論文の概要: Target Training Does Adversarial Training Without Adversarial Samples
- arxiv url: http://arxiv.org/abs/2102.04836v1
- Date: Tue, 9 Feb 2021 14:17:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 14:58:10.779065
- Title: Target Training Does Adversarial Training Without Adversarial Samples
- Title(参考訳): ターゲットトレーニングは、敵のサンプルなしで敵のトレーニングを行います
- Authors: Blerta Lindqvist
- Abstract要約: 敵のサンプルは 敵の攻撃のコアの最小化に基づいて ステアリング・アタック・コンバージェンスに最適ではありません
標的訓練は、摂動を最小限に抑える全ての攻撃に対して、訓練のための敵のサンプルを生成する必要をなくす。
CIFAR10では、摂動を最小化しない攻撃に対する敵のサンプルを使用して、現在の最良の防御(69.1$%)を超え、CW-L$($kappa=40$)に対して76.4$%となる。
- 参考スコア(独自算出の注目度): 0.10152838128195464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural network classifiers are vulnerable to misclassification of adversarial
samples, for which the current best defense trains classifiers with adversarial
samples. However, adversarial samples are not optimal for steering attack
convergence, based on the minimization at the core of adversarial attacks. The
minimization perturbation term can be minimized towards $0$ by replacing
adversarial samples in training with duplicated original samples, labeled
differently only for training. Using only original samples, Target Training
eliminates the need to generate adversarial samples for training against all
attacks that minimize perturbation. In low-capacity classifiers and without
using adversarial samples, Target Training exceeds both default CIFAR10
accuracy ($84.3$%) and current best defense accuracy (below $25$%) with $84.8$%
against CW-L$_2$($\kappa=0$) attack, and $86.6$% against DeepFool. Using
adversarial samples against attacks that do not minimize perturbation, Target
Training exceeds current best defense ($69.1$%) with $76.4$% against
CW-L$_2$($\kappa=40$) in CIFAR10.
- Abstract(参考訳): ニューラルネットワーク分類器は、敵のサンプルの誤分類に弱いため、現在の最良の防衛列車分類器は敵のサンプルで分類される。
しかし、敵攻撃のコアにおける最小化に基づいて、敵のサンプルはステアリングアタック収束に最適ではない。
最小化摂動項は、訓練中の敵のサンプルをトレーニングのためだけにラベル付けされた元のサンプルに置き換えることで、0ドルまで最小化することができる。
元のサンプルのみを使用して、ターゲットトレーニングは、摂動を最小限にするすべての攻撃に対するトレーニングのために逆のサンプルを生成する必要をなくす。
低容量の分類器では、目標訓練はデフォルトのcifar10精度(84.3$%)と現在の防御精度(25$%以下)を上回り、cw-l$_2$($\kappa=0$)攻撃に対して84.8$%、deepfoolに対して86.6$%である。
CIFAR10では、摂動を最小化しない攻撃に対する敵のサンプルを使用することで、現在の最良の防御(69.1$%)を超え、CW-L$_2$($\kappa=40$)に対して76.4$%となる。
関連論文リスト
- Fast Propagation is Better: Accelerating Single-Step Adversarial
Training via Sampling Subnetworks [69.54774045493227]
逆行訓練の欠点は、逆行例の生成によって引き起こされる計算オーバーヘッドである。
モデルの内部構造ブロックを利用して効率を向上させることを提案する。
従来の手法と比較して,本手法はトレーニングコストを削減できるだけでなく,モデルの堅牢性も向上する。
論文 参考訳(メタデータ) (2023-10-24T01:36:20Z) - Robust Few-shot Learning Without Using any Adversarial Samples [19.34427461937382]
高度なメタラーニング技術を用いて、数発の問題をロバストネスの目的と組み合わせる試みがいくつかなされている。
逆のサンプルを一切必要としない単純で効果的な代替案を提案する。
ヒトの認知的意思決定プロセスにインスパイアされ、ベースクラスデータとそれに対応する低周波サンプルの高レベル特徴マッチングを強制する。
論文 参考訳(メタデータ) (2022-11-03T05:58:26Z) - Sampling Attacks on Meta Reinforcement Learning: A Minimax Formulation
and Complexity Analysis [20.11993437283895]
本稿では,この種のセキュリティリスクを理解するためのゲーム理論的基盤を提供する。
我々は、サンプリング攻撃モデルを、攻撃者とエージェントの間のスタックルバーグゲームとして定義し、最小限の定式化をもたらす。
我々は,攻撃者の小さな努力が学習性能を著しく低下させる可能性があることを観察した。
論文 参考訳(メタデータ) (2022-07-29T21:29:29Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - DAD: Data-free Adversarial Defense at Test Time [21.741026088202126]
ディープモデルは敵の攻撃に非常に敏感である。
プライバシは、トレーニングデータではなく、トレーニングされたモデルのみへのアクセスを制限する、重要な関心事になっている。
我々は,「訓練データと統計値の欠如によるテスト時敵防衛」という全く新しい問題を提案する。
論文 参考訳(メタデータ) (2022-04-04T15:16:13Z) - Practical Evaluation of Adversarial Robustness via Adaptive Auto Attack [96.50202709922698]
実用的な評価手法は、便利な(パラメータフリー)、効率的な(イテレーションの少ない)、信頼性を持つべきである。
本稿では,パラメータフリーな適応オートアタック (A$3$) 評価手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T04:53:54Z) - A BIC based Mixture Model Defense against Data Poisoning Attacks on
Classifiers [24.53226962899903]
Data Poisoning (DP) は、訓練された分類器が入力を誤って分類する効果的な攻撃である。
本稿では,DP攻撃に対する新しい混合モデル防御法を提案する。
論文 参考訳(メタデータ) (2021-05-28T01:06:09Z) - Universal Adversarial Training with Class-Wise Perturbations [78.05383266222285]
敵の訓練は 敵の攻撃を防御するために 最も広く使われる方法です
この作業では、UAPがすべてのクラスを等しく攻撃しないことがわかります。
我々は,対人訓練におけるクラスワイドUAPの利用を提案することで,SOTA UATを改善した。
論文 参考訳(メタデータ) (2021-04-07T09:05:49Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - Tricking Adversarial Attacks To Fail [0.05076419064097732]
私たちのホワイトボックスの防御トリックは、指定されたターゲットクラスをターゲットにした攻撃になるための未然の攻撃です。
私たちのターゲットトレーニングディフェンスは、未目標の勾配ベースの敵攻撃のコアでの最小化をトリックします。
論文 参考訳(メタデータ) (2020-06-08T12:22:07Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。