論文の概要: KATANA: Simple Post-Training Robustness Using Test Time Augmentations
- arxiv url: http://arxiv.org/abs/2109.08191v1
- Date: Thu, 16 Sep 2021 19:16:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-20 14:47:31.067687
- Title: KATANA: Simple Post-Training Robustness Using Test Time Augmentations
- Title(参考訳): カタナ:テスト時間拡張を用いた簡易なトレーニング後のロバストネス
- Authors: Gilad Cohen, Raja Giryes
- Abstract要約: このような攻撃に対する先導的な防御は、DNNが敵の攻撃に対して堅牢であるように訓練される技術である敵の訓練である。
そこで本稿では,既存の事前学習型DNNを重みを変更せずに堅牢化する,シンプルで使いやすいKATANA手法を提案する。
我々の戦略は、自然画像の分類に最小限の妥協を伴い、様々な攻撃に対する最先端の敵対的堅牢性を達成する。
- 参考スコア(独自算出の注目度): 49.28906786793494
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Although Deep Neural Networks (DNNs) achieve excellent performance on many
real-world tasks, they are highly vulnerable to adversarial attacks. A leading
defense against such attacks is adversarial training, a technique in which a
DNN is trained to be robust to adversarial attacks by introducing adversarial
noise to its input. This procedure is effective but must be done during the
training phase. In this work, we propose a new simple and easy-to-use
technique, KATANA, for robustifying an existing pretrained DNN without
modifying its weights. For every image, we generate N randomized Test Time
Augmentations (TTAs) by applying diverse color, blur, noise, and geometric
transforms. Next, we utilize the DNN's logits output to train a simple random
forest classifier to predict the real class label. Our strategy achieves
state-of-the-art adversarial robustness on diverse attacks with minimal
compromise on the natural images' classification. We test KATANA also against
two adaptive white-box attacks and it shows excellent results when combined
with adversarial training. Code is available in
https://github.com/giladcohen/KATANA.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は多くの現実世界のタスクにおいて優れた性能を発揮するが、敵の攻撃に対して非常に脆弱である。
このような攻撃に対する先導的な防御は、敵の訓練であり、DNNはその入力に敵の雑音を導入することによって敵の攻撃に対して堅牢に訓練される。
この手順は効果的であるが、訓練段階で行う必要がある。
そこで本研究では,既存のトレーニング済みDNNを重みを変更せずに堅牢化する,シンプルで使いやすいKATANA手法を提案する。
各画像に対して、多彩な色、ぼやけ、雑音、幾何変換を適用して、ランダム化テスト時間拡張(TTA)を生成する。
次に、DNNのロジット出力を利用して、単純なランダムな森林分類器を訓練し、実クラスラベルを予測する。
我々の戦略は、自然画像の分類に最小限の妥協を伴い、様々な攻撃に対する最先端の敵対的堅牢性を達成する。
また,2つの適応的ホワイトボックス攻撃に対してカタナを試験し,対人訓練と組み合わせて優れた結果を示した。
コードはhttps://github.com/giladcohen/KATANAで入手できる。
関連論文リスト
- On adversarial training and the 1 Nearest Neighbor classifier [8.248839892711478]
本研究では,1 NNN分類器の対向ロバスト性を解析し,その性能を対向訓練と比較する。
以上の結果から,現代の逆行訓練手法は単純な1NN分類器の頑健さに欠けていたことが示唆された。
論文 参考訳(メタデータ) (2024-04-09T13:47:37Z) - Do we need entire training data for adversarial training? [2.995087247817663]
我々は, 対人訓練のためのトレーニングデータのサブセットのみを用いることで, 任意の対人訓練アルゴリズムのトレーニング時間を短縮できることを示す。
逆行性サブセットで逆行訓練を行い、データセット全体のバニラトレーニングと組み合わせる。
その結果,本手法をFGSMにプラグインした場合,MNISTでは3.52倍,CIFAR-10データセットでは1.98倍の高速化を実現することができた。
論文 参考訳(メタデータ) (2023-03-10T23:21:05Z) - AccelAT: A Framework for Accelerating the Adversarial Training of Deep
Neural Networks through Accuracy Gradient [12.118084418840152]
アドリヤトレーニングを利用して、悪意のある変更データに対する堅牢なディープニューラルネットワーク(DNN)モデルを開発する。
本研究の目的は、敵の攻撃に対して堅牢なDNNモデルの迅速な開発を可能にするために、敵の訓練を加速することである。
論文 参考訳(メタデータ) (2022-10-13T10:31:51Z) - Two Heads are Better than One: Robust Learning Meets Multi-branch Models [14.72099568017039]
本稿では,従来の対人訓練用データセットのみを用いて,最先端のパフォーマンスを得るために,分岐直交補助訓練(BORT)を提案する。
我々は, CIFAR-10, CIFAR-100, SVHN に対する Epsilon = 8/255 の ell_infty ノルム束縛摂動に対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-08-17T05:42:59Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Practical No-box Adversarial Attacks with Training-free Hybrid Image
Transformation [123.33816363589506]
ノンボックス脅威モデルの下では, テキストbftraining-free adversarial perturbationの存在を示す。
低レベルの特徴を持つ高周波成分 (HFC) ドメインは, 主に周波数成分の操作によって画像を攻撃する。
我々の手法は、主流の転送ベースのブラックボックス攻撃と競合する。
論文 参考訳(メタデータ) (2022-03-09T09:51:00Z) - Universal Adversarial Training with Class-Wise Perturbations [78.05383266222285]
敵の訓練は 敵の攻撃を防御するために 最も広く使われる方法です
この作業では、UAPがすべてのクラスを等しく攻撃しないことがわかります。
我々は,対人訓練におけるクラスワイドUAPの利用を提案することで,SOTA UATを改善した。
論文 参考訳(メタデータ) (2021-04-07T09:05:49Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Evaluating a Simple Retraining Strategy as a Defense Against Adversarial
Attacks [17.709146615433458]
我々は、KNNのような単純なアルゴリズムが、再トレーニングに必要な逆画像のラベルを決定するためにどのように使用できるかを示す。
CIFAR-10とTinyImageNetという2つの標準データセットで結果を示す。
論文 参考訳(メタデータ) (2020-07-20T07:49:33Z) - Defense against Adversarial Attacks in NLP via Dirichlet Neighborhood
Ensemble [163.3333439344695]
Dirichlet Neighborhood Ensemble (DNE) は、ロバストモデルを用いて置換攻撃を防御するランダムな平滑化手法である。
DNEは、単語とその同義語で区切られた凸殻から入力文中の各単語の埋め込みベクトルをサンプリングして仮想文を生成し、訓練データでそれらを増強する。
我々は,提案手法が最近提案した防衛手法を,異なるネットワークアーキテクチャと複数のデータセット間で有意差で一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-20T18:01:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。