論文の概要: Testing Robustness Against Unforeseen Adversaries
- arxiv url: http://arxiv.org/abs/1908.08016v4
- Date: Mon, 30 Oct 2023 14:42:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 05:30:05.284036
- Title: Testing Robustness Against Unforeseen Adversaries
- Title(参考訳): 予期せぬ敵に対するロバスト性テスト
- Authors: Max Kaufmann, Daniel Kang, Yi Sun, Steven Basart, Xuwang Yin, Mantas
Mazeika, Akul Arora, Adam Dziedzic, Franziska Boenisch, Tom Brown, Jacob
Steinhardt, Dan Hendrycks
- Abstract要約: 対向ロバストネスの研究は主にL_p摂動に焦点を当てている。
現実世界のアプリケーションでは、開発者はシステムが直面するあらゆる攻撃や汚職にアクセスできる可能性は低い。
我々は、予期せぬ敵に対して、モデルロバスト性を評価するためのフレームワークであるImageNet-UAを紹介する。
- 参考スコア(独自算出の注目度): 54.75108356391557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial robustness research primarily focuses on L_p perturbations, and
most defenses are developed with identical training-time and test-time
adversaries. However, in real-world applications developers are unlikely to
have access to the full range of attacks or corruptions their system will face.
Furthermore, worst-case inputs are likely to be diverse and need not be
constrained to the L_p ball. To narrow in on this discrepancy between research
and reality we introduce ImageNet-UA, a framework for evaluating model
robustness against a range of unforeseen adversaries, including eighteen new
non-L_p attacks. To perform well on ImageNet-UA, defenses must overcome a
generalization gap and be robust to a diverse attacks not encountered during
training. In extensive experiments, we find that existing robustness measures
do not capture unforeseen robustness, that standard robustness techniques are
beat by alternative training strategies, and that novel methods can improve
unforeseen robustness. We present ImageNet-UA as a useful tool for the
community for improving the worst-case behavior of machine learning systems.
- Abstract(参考訳): adversarial robustness researchは主にl_p摂動に焦点を当てており、ほとんどの防御はトレーニングタイムとテストタイムの逆境で開発されている。
しかし、現実世界のアプリケーションでは、開発者はシステムが直面する攻撃や汚職の全範囲にアクセスできない。
さらに、最悪のケース入力は多様であり、L_pボールに制約される必要はない。
研究と現実のこの相違を狭めるために、新しい18の非L_p攻撃を含む、予期せぬ敵に対するモデルの堅牢性を評価するためのフレームワークであるImageNet-UAを導入する。
ImageNet-UAでうまく機能するためには、ディフェンスは一般化ギャップを克服し、トレーニング中に遭遇しない多様な攻撃に対して堅牢でなければならない。
大規模な実験では、既存のロバストネス対策が予期せぬロバストネスを捉えていないこと、標準ロバストネス技術が代替トレーニング戦略に勝っていること、新しい手法が予期せぬロバストネスを改善できることが判明した。
我々は,機械学習システムの最悪の動作を改善するためのコミュニティの有用なツールとして,ImageNet-UAを提案する。
関連論文リスト
- Protecting Feed-Forward Networks from Adversarial Attacks Using Predictive Coding [0.20718016474717196]
逆の例は、機械学習(ML)モデルが誤りを犯すように設計された、修正された入力イメージである。
本研究では,敵防衛のための補助的なステップとして,予測符号化ネットワーク(PCnet)を用いた実用的で効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T21:38:05Z) - Multi-agent Reinforcement Learning-based Network Intrusion Detection System [3.4636217357968904]
侵入検知システム(IDS)は,コンピュータネットワークのセキュリティ確保において重要な役割を担っている。
本稿では,自動,効率的,堅牢なネットワーク侵入検出が可能な,新しいマルチエージェント強化学習(RL)アーキテクチャを提案する。
我々のソリューションは、新しい攻撃の追加に対応し、既存の攻撃パターンの変更に効果的に適応するように設計されたレジリエントなアーキテクチャを導入します。
論文 参考訳(メタデータ) (2024-07-08T09:18:59Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Improved Adversarial Training Through Adaptive Instance-wise Loss
Smoothing [5.1024659285813785]
敵の訓練は、このような敵の攻撃に対する最も成功した防御であった。
本稿では,新たな対人訓練手法を提案する。
本手法は,$ell_infty$-norm制約攻撃に対する最先端のロバスト性を実現する。
論文 参考訳(メタデータ) (2023-03-24T15:41:40Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Self-Progressing Robust Training [146.8337017922058]
敵対的なトレーニングのような現在の堅牢なトレーニング方法は、敵対的な例を生成するために「攻撃」を明示的に使用します。
我々はSPROUTと呼ばれる自己プログレッシブ・ロバスト・トレーニングのための新しいフレームワークを提案する。
その結果,スケーラブルで効果的で攻撃に依存しないロバストなトレーニング手法に新たな光を当てた。
論文 参考訳(メタデータ) (2020-12-22T00:45:24Z) - Robust Reinforcement Learning using Adversarial Populations [118.73193330231163]
強化学習(Reinforcement Learning, RL)は、コントローラ設計に有効なツールであるが、堅牢性の問題に対処できる。
一つの逆数を使うことは、逆数の標準的なパラメトリゼーションの下での動的変動に一貫して堅牢性をもたらすわけではないことを示す。
本稿では,ロバスト RL の定式化に対する人口ベース増進法を提案する。
論文 参考訳(メタデータ) (2020-08-04T20:57:32Z) - Opportunities and Challenges in Deep Learning Adversarial Robustness: A
Survey [1.8782750537161614]
本稿では,機械学習アルゴリズムの安全性を保証するために,強靭に訓練されたアルゴリズムを実装するための戦略について検討する。
我々は、敵の攻撃と防衛を分類し、ロバスト最適化問題をmin-max設定で定式化し、それを3つのサブカテゴリに分類する。
論文 参考訳(メタデータ) (2020-07-01T21:00:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。