論文の概要: Testing Robustness Against Unforeseen Adversaries
- arxiv url: http://arxiv.org/abs/1908.08016v3
- Date: Sun, 9 Jul 2023 19:07:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 19:51:40.829316
- Title: Testing Robustness Against Unforeseen Adversaries
- Title(参考訳): 予期せぬ敵に対するロバスト性テスト
- Authors: Max Kaufmann, Daniel Kang, Yi Sun, Steven Basart, Xuwang Yin, Mantas
Mazeika, Akul Arora, Adam Dziedzic, Franziska Boenisch, Tom Brown, Jacob
Steinhardt, Dan Hendrycks
- Abstract要約: ImageNet-UAは、幅広い敵に対してモデルの堅牢性を評価するための新しいベンチマークである。
我々は、この一般化ギャップを克服するのに役立つ様々な防衛戦略を特定するために、我々のベンチマークを利用しています。
ImageNet-UAの多様性と現実性により、現実の最悪のロバストネスに取り組む人々にとって便利なツールになることを願っている。
- 参考スコア(独自算出の注目度): 32.69464463171732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When considering real-world adversarial settings, defenders are unlikely to
have access to the full range of deployment-time adversaries during training,
and adversaries are likely to use realistic adversarial distortions that will
not be limited to small L_p-constrained perturbations. To narrow in on this
discrepancy between research and reality we introduce eighteen novel
adversarial attacks, which we use to create ImageNet-UA, a new benchmark for
evaluating model robustness against a wide range of unforeseen adversaries. We
make use of our benchmark to identify a range of defense strategies which can
help overcome this generalization gap, finding a rich space of techniques which
can improve unforeseen robustness. We hope the greater variety and realism of
ImageNet-UA will make it a useful tool for those working on real-world
worst-case robustness, enabling development of more robust defenses which can
generalize beyond attacks seen during training.
- Abstract(参考訳): 現実の敵の設定を考えると、ディフェンダーは訓練中に展開時間の完全な敵にアクセスできる可能性は低く、敵は小さなL_p制約の摂動に制限されない現実的な敵の歪みを使用する可能性が高い。
この研究と現実の相違を狭めるために、我々は、予期せぬ幅広い敵に対してモデルロバスト性を評価する新しいベンチマークであるImageNet-UAを作成するために使用する18の新たな敵攻撃を導入する。
当社は、この一般化ギャップを克服するための幅広い防御戦略を特定し、予期せぬ堅牢性を改善するための豊富な技術空間を見つけるために、ベンチマークを利用しています。
ImageNet-UAの多様性と現実性により、これは現実世界の最悪のケースの堅牢性に取り組む人々にとって有用なツールになり、トレーニング中に見られる攻撃を超えて、より堅牢な防御を開発することができることを期待しています。
関連論文リスト
- Protecting Feed-Forward Networks from Adversarial Attacks Using Predictive Coding [0.20718016474717196]
逆の例は、機械学習(ML)モデルが誤りを犯すように設計された、修正された入力イメージである。
本研究では,敵防衛のための補助的なステップとして,予測符号化ネットワーク(PCnet)を用いた実用的で効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T21:38:05Z) - Multi-agent Reinforcement Learning-based Network Intrusion Detection System [3.4636217357968904]
侵入検知システム(IDS)は,コンピュータネットワークのセキュリティ確保において重要な役割を担っている。
本稿では,自動,効率的,堅牢なネットワーク侵入検出が可能な,新しいマルチエージェント強化学習(RL)アーキテクチャを提案する。
我々のソリューションは、新しい攻撃の追加に対応し、既存の攻撃パターンの変更に効果的に適応するように設計されたレジリエントなアーキテクチャを導入します。
論文 参考訳(メタデータ) (2024-07-08T09:18:59Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Improved Adversarial Training Through Adaptive Instance-wise Loss
Smoothing [5.1024659285813785]
敵の訓練は、このような敵の攻撃に対する最も成功した防御であった。
本稿では,新たな対人訓練手法を提案する。
本手法は,$ell_infty$-norm制約攻撃に対する最先端のロバスト性を実現する。
論文 参考訳(メタデータ) (2023-03-24T15:41:40Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Self-Progressing Robust Training [146.8337017922058]
敵対的なトレーニングのような現在の堅牢なトレーニング方法は、敵対的な例を生成するために「攻撃」を明示的に使用します。
我々はSPROUTと呼ばれる自己プログレッシブ・ロバスト・トレーニングのための新しいフレームワークを提案する。
その結果,スケーラブルで効果的で攻撃に依存しないロバストなトレーニング手法に新たな光を当てた。
論文 参考訳(メタデータ) (2020-12-22T00:45:24Z) - Robust Reinforcement Learning using Adversarial Populations [118.73193330231163]
強化学習(Reinforcement Learning, RL)は、コントローラ設計に有効なツールであるが、堅牢性の問題に対処できる。
一つの逆数を使うことは、逆数の標準的なパラメトリゼーションの下での動的変動に一貫して堅牢性をもたらすわけではないことを示す。
本稿では,ロバスト RL の定式化に対する人口ベース増進法を提案する。
論文 参考訳(メタデータ) (2020-08-04T20:57:32Z) - Opportunities and Challenges in Deep Learning Adversarial Robustness: A
Survey [1.8782750537161614]
本稿では,機械学習アルゴリズムの安全性を保証するために,強靭に訓練されたアルゴリズムを実装するための戦略について検討する。
我々は、敵の攻撃と防衛を分類し、ロバスト最適化問題をmin-max設定で定式化し、それを3つのサブカテゴリに分類する。
論文 参考訳(メタデータ) (2020-07-01T21:00:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。