論文の概要: Testing Robustness Against Unforeseen Adversaries
- arxiv url: http://arxiv.org/abs/1908.08016v4
- Date: Mon, 30 Oct 2023 14:42:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 05:30:05.284036
- Title: Testing Robustness Against Unforeseen Adversaries
- Title(参考訳): 予期せぬ敵に対するロバスト性テスト
- Authors: Max Kaufmann, Daniel Kang, Yi Sun, Steven Basart, Xuwang Yin, Mantas
Mazeika, Akul Arora, Adam Dziedzic, Franziska Boenisch, Tom Brown, Jacob
Steinhardt, Dan Hendrycks
- Abstract要約: 対向ロバストネスの研究は主にL_p摂動に焦点を当てている。
現実世界のアプリケーションでは、開発者はシステムが直面するあらゆる攻撃や汚職にアクセスできる可能性は低い。
我々は、予期せぬ敵に対して、モデルロバスト性を評価するためのフレームワークであるImageNet-UAを紹介する。
- 参考スコア(独自算出の注目度): 54.75108356391557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial robustness research primarily focuses on L_p perturbations, and
most defenses are developed with identical training-time and test-time
adversaries. However, in real-world applications developers are unlikely to
have access to the full range of attacks or corruptions their system will face.
Furthermore, worst-case inputs are likely to be diverse and need not be
constrained to the L_p ball. To narrow in on this discrepancy between research
and reality we introduce ImageNet-UA, a framework for evaluating model
robustness against a range of unforeseen adversaries, including eighteen new
non-L_p attacks. To perform well on ImageNet-UA, defenses must overcome a
generalization gap and be robust to a diverse attacks not encountered during
training. In extensive experiments, we find that existing robustness measures
do not capture unforeseen robustness, that standard robustness techniques are
beat by alternative training strategies, and that novel methods can improve
unforeseen robustness. We present ImageNet-UA as a useful tool for the
community for improving the worst-case behavior of machine learning systems.
- Abstract(参考訳): adversarial robustness researchは主にl_p摂動に焦点を当てており、ほとんどの防御はトレーニングタイムとテストタイムの逆境で開発されている。
しかし、現実世界のアプリケーションでは、開発者はシステムが直面する攻撃や汚職の全範囲にアクセスできない。
さらに、最悪のケース入力は多様であり、L_pボールに制約される必要はない。
研究と現実のこの相違を狭めるために、新しい18の非L_p攻撃を含む、予期せぬ敵に対するモデルの堅牢性を評価するためのフレームワークであるImageNet-UAを導入する。
ImageNet-UAでうまく機能するためには、ディフェンスは一般化ギャップを克服し、トレーニング中に遭遇しない多様な攻撃に対して堅牢でなければならない。
大規模な実験では、既存のロバストネス対策が予期せぬロバストネスを捉えていないこと、標準ロバストネス技術が代替トレーニング戦略に勝っていること、新しい手法が予期せぬロバストネスを改善できることが判明した。
我々は,機械学習システムの最悪の動作を改善するためのコミュニティの有用なツールとして,ImageNet-UAを提案する。
関連論文リスト
- Defending Against Unforeseen Failure Modes with Latent Adversarial
Training [7.802103248428407]
赤いチームと敵のトレーニング(AT)は、AIシステムをより堅牢にするために一般的に使用される。
本研究では,LAT(Latent Adversarial Training)を用いて,脆弱性を誘発する入力を発生させることなく脆弱性を防御する。
論文 参考訳(メタデータ) (2024-03-08T04:22:48Z) - Improved Adversarial Training Through Adaptive Instance-wise Loss
Smoothing [5.1024659285813785]
敵の訓練は、このような敵の攻撃に対する最も成功した防御であった。
本稿では,新たな対人訓練手法を提案する。
本手法は,$ell_infty$-norm制約攻撃に対する最先端のロバスト性を実現する。
論文 参考訳(メタデータ) (2023-03-24T15:41:40Z) - A Comprehensive Study on Robustness of Image Classification Models:
Benchmarking and Rethinking [54.89987482509155]
ディープニューラルネットワークのロバスト性は、通常、敵の例、共通の腐敗、分散シフトに欠けている。
画像分類タスクにおいてtextbfARES-Bench と呼ばれる総合的なベンチマークロバスト性を確立する。
それに応じてトレーニング設定を設計することにより、新しい最先端の対人ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-02-28T04:26:20Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Self-Progressing Robust Training [146.8337017922058]
敵対的なトレーニングのような現在の堅牢なトレーニング方法は、敵対的な例を生成するために「攻撃」を明示的に使用します。
我々はSPROUTと呼ばれる自己プログレッシブ・ロバスト・トレーニングのための新しいフレームワークを提案する。
その結果,スケーラブルで効果的で攻撃に依存しないロバストなトレーニング手法に新たな光を当てた。
論文 参考訳(メタデータ) (2020-12-22T00:45:24Z) - Robust Reinforcement Learning using Adversarial Populations [118.73193330231163]
強化学習(Reinforcement Learning, RL)は、コントローラ設計に有効なツールであるが、堅牢性の問題に対処できる。
一つの逆数を使うことは、逆数の標準的なパラメトリゼーションの下での動的変動に一貫して堅牢性をもたらすわけではないことを示す。
本稿では,ロバスト RL の定式化に対する人口ベース増進法を提案する。
論文 参考訳(メタデータ) (2020-08-04T20:57:32Z) - Opportunities and Challenges in Deep Learning Adversarial Robustness: A
Survey [1.8782750537161614]
本稿では,機械学習アルゴリズムの安全性を保証するために,強靭に訓練されたアルゴリズムを実装するための戦略について検討する。
我々は、敵の攻撃と防衛を分類し、ロバスト最適化問題をmin-max設定で定式化し、それを3つのサブカテゴリに分類する。
論文 参考訳(メタデータ) (2020-07-01T21:00:32Z) - Adversarial Feature Desensitization [12.401175943131268]
本稿では,ドメイン適応分野からの洞察を基盤とした,対向ロバスト性に対する新しいアプローチを提案する。
提案手法は,入力の逆方向の摂動に対して不変な特徴を学習することを目的として,AFD(Adversarial Feature Desensitization)と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T14:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。