論文の概要: Blind Adversarial Training: Balance Accuracy and Robustness
- arxiv url: http://arxiv.org/abs/2004.05914v1
- Date: Fri, 10 Apr 2020 02:16:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 20:27:34.729519
- Title: Blind Adversarial Training: Balance Accuracy and Robustness
- Title(参考訳): Blind Adversarial Training: バランス精度とロバスト性
- Authors: Haidong Xie, Xueshuang Xiang, Naijin Liu, Bin Dong
- Abstract要約: 逆行訓練(AT)は、クリーンデータと逆行例(AE)を混合することにより、ディープラーニングモデルの堅牢性を向上させることを目的としている。
本稿では, ブラインド・逆行訓練(BAT)と呼ばれる新しいATアプローチを提案し, 精度とロバストさのバランスを良くする。
- 参考スコア(独自算出の注目度): 9.224557511013584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial training (AT) aims to improve the robustness of deep learning
models by mixing clean data and adversarial examples (AEs). Most existing AT
approaches can be grouped into restricted and unrestricted approaches.
Restricted AT requires a prescribed uniform budget to constrain the magnitude
of the AE perturbations during training, with the obtained results showing high
sensitivity to the budget. On the other hand, unrestricted AT uses
unconstrained AEs, resulting in the use of AEs located beyond the decision
boundary; these overestimated AEs significantly lower the accuracy on clean
data. These limitations mean that the existing AT approaches have difficulty in
obtaining a comprehensively robust model with high accuracy and robustness when
confronting attacks with varying strengths. Considering this problem, this
paper proposes a novel AT approach named blind adversarial training (BAT) to
better balance the accuracy and robustness. The main idea of this approach is
to use a cutoff-scale strategy to adaptively estimate a nonuniform budget to
modify the AEs used in the training, ensuring that the strengths of the AEs are
dynamically located in a reasonable range and ultimately improving the overall
robustness of the AT model. The experimental results obtained using BAT for
training classification models on several benchmarks demonstrate the
competitive performance of this method.
- Abstract(参考訳): adversarial training(at)は、クリーンデータとadversarial example(aes)を混ぜることで、ディープラーニングモデルの堅牢性を改善することを目的としている。
既存の at アプローチのほとんどは制限付きと制限なしのアプローチにグループ化できる。
制限されたATは、トレーニング中のAE摂動の大きさを制限するために所定の均一な予算を必要とし、その結果は予算に対する高い感度を示す。
一方、制約のないATは制約のないAEを使用するため、決定境界を超えたAEを使用する。
これらの制限は、既存のATアプローチが、様々な強度の攻撃に直面する場合、高精度で堅牢なモデルを得るのに困難であることを意味する。
そこで本研究では,視覚障害者訓練(BAT)と呼ばれる新しいATアプローチを提案し,精度とロバストさのバランスを良くする。
このアプローチの主な考え方は、カットオフスケールの戦略を用いて、トレーニングで使用されるAEを適応的に推定し、AEの強度が合理的な範囲に動的に配置され、最終的にATモデルの全体的な堅牢性を改善することである。
いくつかのベンチマークで分類モデルの訓練にBATを用いた実験結果から,本手法の競争性能を実証した。
関連論文リスト
- Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Adversarial Feature Alignment: Balancing Robustness and Accuracy in Deep
Learning via Adversarial Training [10.099179580467737]
敵の攻撃に対する堅牢性を高めることによりこの問題を軽減するために、敵の訓練が使用される。
このアプローチは典型的には、クリーンで非敵対的なサンプルに対するモデルの標準精度を低下させる。
本稿では,これらの問題に対処するために,AFA (Adversarial Feature Alignment) と呼ばれる新たな対人訓練手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T14:51:20Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Reducing Adversarial Training Cost with Gradient Approximation [0.3916094706589679]
そこで本研究では,厳密なモデル構築に要するコストを削減するために,GAAT(グラディエント近似)を用いた対戦訓練法を提案する。
提案手法は,データセット上でのモデルテスト精度に比較して,トレーニング時間の最大60%を節約する。
論文 参考訳(メタデータ) (2023-09-18T03:55:41Z) - Hard Adversarial Example Mining for Improving Robust Fairness [18.02943802341582]
敵対的トレーニング(AT)は、敵対的事例(AE)に対するディープニューラルネットワーク(DNN)の堅牢性を改善するための最先端技術として広く考えられている。
近年の研究では、敵に訓練されたモデルは不公平な問題を起こしやすく、適用性が制限されていることが明らかになっている。
この問題を軽減するために,適応型ハード・アドバイザリの例である Mining.HAM を用いて,単純かつ効果的なフレームワーク HAM を提案する。
論文 参考訳(メタデータ) (2023-08-03T15:33:24Z) - Strength-Adaptive Adversarial Training [103.28849734224235]
対戦訓練(AT)は、敵データに対するネットワークの堅牢性を確実に改善することが証明されている。
所定の摂動予算を持つ現在のATは、堅牢なネットワークの学習に制限がある。
本稿では,これらの制限を克服するために,emphStrength-Adaptive Adversarial Training (SAAT)を提案する。
論文 参考訳(メタデータ) (2022-10-04T00:22:37Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z) - Blind Adversarial Pruning: Balance Accuracy, Efficiency and Robustness [3.039568795810294]
本稿では, 段階的プルーニング過程において, 圧縮比が異なるプルーニングモデルのロバスト性について検討する。
次に、クリーンなデータと逆の例を段階的なプルーニングプロセスに混合する性能を検証し、逆プルーニング(英語版)と呼ぶ。
AERのバランスを改善するために,視覚的対位法(BAP)というアプローチを提案し,段階的対位法に視覚的対位法を取り入れた。
論文 参考訳(メタデータ) (2020-04-10T02:27:48Z) - Boosting Adversarial Training with Hypersphere Embedding [53.75693100495097]
敵対的訓練は、ディープラーニングモデルに対する敵対的攻撃に対する最も効果的な防御の1つである。
本研究では,超球埋め込み機構をATプロシージャに組み込むことを提唱する。
我々は,CIFAR-10 と ImageNet データセットに対する幅広い敵対攻撃の下で本手法を検証した。
論文 参考訳(メタデータ) (2020-02-20T08:42:29Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。