論文の概要: Meta Adversarial Training
- arxiv url: http://arxiv.org/abs/2101.11453v1
- Date: Wed, 27 Jan 2021 14:36:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-01 19:50:38.170964
- Title: Meta Adversarial Training
- Title(参考訳): Meta Adversarial Training
- Authors: Jan Hendrik Metzen, Nicole Finnie, Robin Hutmacher
- Abstract要約: 敵の訓練は、画像に依存した敵の攻撃に対する最も効果的な防御である。
敵の訓練を 普遍的な摂動に合わせるのは 計算に費用がかかる
画像分類と交通信号検出における普遍的パッチと普遍的摂動攻撃について検討した。
- 参考スコア(独自算出の注目度): 11.731001328350985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently demonstrated physical-world adversarial attacks have exposed
vulnerabilities in perception systems that pose severe risks for
safety-critical applications such as autonomous driving. These attacks place
adversarial artifacts in the physical world that indirectly cause the addition
of universal perturbations to inputs of a model that can fool it in a variety
of contexts. Adversarial training is the most effective defense against
image-dependent adversarial attacks. However, tailoring adversarial training to
universal perturbations is computationally expensive since the optimal
universal perturbations depend on the model weights which change during
training. We propose meta adversarial training (MAT), a novel combination of
adversarial training with meta-learning, which overcomes this challenge by
meta-learning universal perturbations along with model training. MAT requires
little extra computation while continuously adapting a large set of
perturbations to the current model. We present results for universal patch and
universal perturbation attacks on image classification and traffic-light
detection. MAT considerably increases robustness against universal patch
attacks compared to prior work.
- Abstract(参考訳): 近年、物理世界の敵対的攻撃が認識システムの脆弱性を露呈し、自律運転のような安全クリティカルなアプリケーションに深刻なリスクをもたらしている。
これらの攻撃は、様々な文脈でそれを騙すことができるモデルの入力に間接的に普遍的な摂動を付加する物理的世界における敵対的アーティファクトを配置する。
対人訓練はイメージ依存の対人攻撃に対する最も効果的な防御です。
しかし、最適普遍摂動はトレーニング中に変化するモデル重みに依存するため、普遍摂動に対する対角トレーニングの調整は計算コストがかかる。
本稿では,メタ対人訓練とメタ学習の新たな組み合わせであるメタ対人訓練(MAT)を提案する。
MATは、現在のモデルに大量の摂動を継続的に適用しながら、余分な計算をほとんど必要としない。
画像分類と信号検出におけるユニバーサルパッチとユニバーサル摂動攻撃の結果を提示する。
MATは、以前の作業と比べて、ユニバーサルパッチ攻撃に対する堅牢性を大幅に向上させる。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Self-Ensemble Adversarial Training for Improved Robustness [14.244311026737666]
敵の訓練は、あらゆる種類の防衛方法において、様々な敵の攻撃に対する最強の戦略である。
最近の研究は主に新しい損失関数や正規化器の開発に重点を置いており、重み空間の特異な最適点を見つけようとしている。
我々は,歴史モデルの重みを平均化し,頑健な分類器を生成するための,単純だが強力なemphSelf-Ensemble Adversarial Training (SEAT)法を考案した。
論文 参考訳(メタデータ) (2022-03-18T01:12:18Z) - Interpolated Joint Space Adversarial Training for Robust and
Generalizable Defenses [82.3052187788609]
敵の訓練(AT)は、敵の攻撃に対する最も信頼できる防御の1つと考えられている。
近年の研究では、新たな脅威モデルの下での対向サンプルによる一般化の改善が示されている。
我々は、JSTM(Joint Space Threat Model)と呼ばれる新しい脅威モデルを提案する。
JSTMでは,新たな敵攻撃・防衛手法が開発されている。
論文 参考訳(メタデータ) (2021-12-12T21:08:14Z) - Robustness-via-Synthesis: Robust Training with Generative Adversarial
Perturbations [10.140147080535224]
先制攻撃による敵の訓練は、今日の敵の摂動に対する最も効果的な防御の1つである。
本研究では, 逆方向の摂動を自動的にランダムなベクトルから生成ネットワークを用いて合成する頑健な学習アルゴリズムを提案する。
実験結果から, 提案手法は様々な勾配に基づく, 生成的ロバストトレーニング手法により, 同等のロバスト性が得られることがわかった。
論文 参考訳(メタデータ) (2021-08-22T13:15:24Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Universal Adversarial Training with Class-Wise Perturbations [78.05383266222285]
敵の訓練は 敵の攻撃を防御するために 最も広く使われる方法です
この作業では、UAPがすべてのクラスを等しく攻撃しないことがわかります。
我々は,対人訓練におけるクラスワイドUAPの利用を提案することで,SOTA UATを改善した。
論文 参考訳(メタデータ) (2021-04-07T09:05:49Z) - Self-Progressing Robust Training [146.8337017922058]
敵対的なトレーニングのような現在の堅牢なトレーニング方法は、敵対的な例を生成するために「攻撃」を明示的に使用します。
我々はSPROUTと呼ばれる自己プログレッシブ・ロバスト・トレーニングのための新しいフレームワークを提案する。
その結果,スケーラブルで効果的で攻撃に依存しないロバストなトレーニング手法に新たな光を当てた。
論文 参考訳(メタデータ) (2020-12-22T00:45:24Z) - Adversarial Training with Stochastic Weight Average [4.633908654744751]
ディープニューラルネットワークのアドリヤトレーニングは、しばしば深刻なオーバーフィッティング問題を経験する。
従来の機械学習では、データの不足から過度な適合を緩和する1つの方法は、アンサンブルメソッドを使用することである。
本稿では,重み平均(SWA)を用いた対向訓練を提案する。
対人訓練中に,訓練軌跡の時間的重み状態を集計する。
論文 参考訳(メタデータ) (2020-09-21T04:47:20Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。