論文の概要: Addressing Neural Network Robustness with Mixup and Targeted Labeling
Adversarial Training
- arxiv url: http://arxiv.org/abs/2008.08384v1
- Date: Wed, 19 Aug 2020 11:34:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 08:41:09.393998
- Title: Addressing Neural Network Robustness with Mixup and Targeted Labeling
Adversarial Training
- Title(参考訳): 混成学習と目標ラベル学習によるニューラルネットワークロバストネスの対応
- Authors: Alfred Laugros, Alice Caplier, Matthieu Ospici
- Abstract要約: 広義のロバスト性に対応するため,M-TLATと呼ばれる新たなデータ拡張戦略を提案する。
我々のアプローチは、Mixup拡張とTargeted Labeling Adversarial Training (TLAT)と呼ばれる新しい逆トレーニングアルゴリズムを組み合わせている。
M-TLATは、画像分類器の堅牢性を19の共通汚職と5つの敵攻撃に対して向上させ、クリーンサンプルの精度を低下させることなく得ることを示した。
- 参考スコア(独自算出の注目度): 5.156484100374058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite their performance, Artificial Neural Networks are not reliable enough
for most of industrial applications. They are sensitive to noises, rotations,
blurs and adversarial examples. There is a need to build defenses that protect
against a wide range of perturbations, covering the most traditional common
corruptions and adversarial examples. We propose a new data augmentation
strategy called M-TLAT and designed to address robustness in a broad sense. Our
approach combines the Mixup augmentation and a new adversarial training
algorithm called Targeted Labeling Adversarial Training (TLAT). The idea of
TLAT is to interpolate the target labels of adversarial examples with the
ground-truth labels. We show that M-TLAT can increase the robustness of image
classifiers towards nineteen common corruptions and five adversarial attacks,
without reducing the accuracy on clean samples.
- Abstract(参考訳): その性能にもかかわらず、Artificial Neural Networksは、ほとんどの産業アプリケーションに十分な信頼性を持っていない。
ノイズ、回転、ぼやけ、敵対的な例に敏感である。
幅広い摂動に対して防御を構築する必要があり、最も伝統的な一般的な汚職や敵対的な例をカバーしている。
本稿では,M-TLATと呼ばれる新しいデータ拡張戦略を提案する。
提案手法は,Mixup拡張と,Targeted Labeling Adversarial Training (TLAT)と呼ばれる新たな逆トレーニングアルゴリズムを組み合わせたものである。
TLATの考え方は、敵のサンプルのターゲットラベルと接地トラスラベルを補間することである。
M-TLATは、画像分類器の堅牢性を19の共通汚職と5つの敵攻撃に対して向上させ、クリーンサンプルの精度を低下させることなく得ることを示した。
関連論文リスト
- Effective Targeted Attacks for Adversarial Self-Supervised Learning [58.14233572578723]
ラベル情報を持たないモデルにおいて堅牢性を達成する手段として、教師なしの敵訓練(AT)が強調されている。
本稿では,敵のSSLフレームワークを効果的に生成するために,敵の攻撃を標的とした新たな正のマイニングを提案する。
提案手法は,非コントラスト型SSLフレームワークに適用した場合のロバストネスの大幅な向上と,コントラスト型SSLフレームワークによるロバストネスの向上を示す。
論文 参考訳(メタデータ) (2022-10-19T11:43:39Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Modelling Adversarial Noise for Adversarial Defense [96.56200586800219]
敵の防御は、通常、敵の音を除去したり、敵の頑強な目標モデルを訓練するために、敵の例を活用することに焦点を当てる。
逆データと自然データの関係は、逆データからクリーンデータを推測し、最終的な正しい予測を得るのに役立ちます。
本研究では, ラベル空間の遷移関係を学習するために, 逆方向の雑音をモデル化し, 逆方向の精度を向上させることを目的とした。
論文 参考訳(メタデータ) (2021-09-21T01:13:26Z) - Universal Adversarial Training with Class-Wise Perturbations [78.05383266222285]
敵の訓練は 敵の攻撃を防御するために 最も広く使われる方法です
この作業では、UAPがすべてのクラスを等しく攻撃しないことがわかります。
我々は,対人訓練におけるクラスワイドUAPの利用を提案することで,SOTA UATを改善した。
論文 参考訳(メタデータ) (2021-04-07T09:05:49Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Optimizing Information Loss Towards Robust Neural Networks [0.0]
ニューラルネットワーク(NN)は、敵の例に対して脆弱である。
テクステントロピックリトレーニングと呼ばれる新しいトレーニング手法を提案する。
情報理論にインスパイアされた分析に基づいて、エントロピー的リトレーニングは敵の訓練の効果を模倣する。
論文 参考訳(メタデータ) (2020-08-07T10:12:31Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z) - Adversarial Feature Desensitization [12.401175943131268]
本稿では,ドメイン適応分野からの洞察を基盤とした,対向ロバスト性に対する新しいアプローチを提案する。
提案手法は,入力の逆方向の摂動に対して不変な特徴を学習することを目的として,AFD(Adversarial Feature Desensitization)と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T14:20:02Z) - Class-Aware Domain Adaptation for Improving Adversarial Robustness [27.24720754239852]
学習データに敵の例を注入することにより,ネットワークを訓練するための敵の訓練が提案されている。
そこで本研究では,対人防御のための新しいクラスアウェアドメイン適応法を提案する。
論文 参考訳(メタデータ) (2020-05-10T03:45:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。