論文の概要: A2: Efficient Automated Attacker for Boosting Adversarial Training
- arxiv url: http://arxiv.org/abs/2210.03543v1
- Date: Fri, 7 Oct 2022 13:28:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 14:18:01.873555
- Title: A2: Efficient Automated Attacker for Boosting Adversarial Training
- Title(参考訳): A2: 対人訓練を増強する効果的な自動攻撃装置
- Authors: Zhuoer Xu, Guanghui Zhu, Changhua Meng, Shiwen Cui, Zhenzhe Ying,
Weiqiang Wang, Ming GU, Yihua Huang
- Abstract要約: 本稿では,A2と呼ばれる自動攻撃を効果的に行うことで,適応訓練(AT)の堅牢性を高めることを提案する。
A2は低コストで強い摂動を発生させ、異なる攻撃に対する様々なAT手法の堅牢性を確実に改善する。
- 参考スコア(独自算出の注目度): 15.37987350655307
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Based on the significant improvement of model robustness by AT (Adversarial
Training), various variants have been proposed to further boost the
performance. Well-recognized methods have focused on different components of AT
(e.g., designing loss functions and leveraging additional unlabeled data). It
is generally accepted that stronger perturbations yield more robust models.
However, how to generate stronger perturbations efficiently is still missed. In
this paper, we propose an efficient automated attacker called A2 to boost AT by
generating the optimal perturbations on-the-fly during training. A2 is a
parameterized automated attacker to search in the attacker space for the best
attacker against the defense model and examples. Extensive experiments across
different datasets demonstrate that A2 generates stronger perturbations with
low extra cost and reliably improves the robustness of various AT methods
against different attacks.
- Abstract(参考訳): AT(Adversarial Training)によるモデルロバストネスの大幅な向上に基づき、さらなる性能向上のために様々なバリエーションが提案されている。
良く認識された手法は、atの異なるコンポーネントに焦点を当ててきた(例えば、損失関数の設計と追加のラベルなしデータの利用)。
強い摂動がより堅牢なモデルを生み出すことは一般に受け入れられる。
しかし、より強力な摂動を効率的に生成する方法はまだ欠落している。
本稿では,トレーニング中に最適な摂動を発生させることで,ATを増強するA2と呼ばれる効率的な自動攻撃手法を提案する。
A2は、防御モデルと例に対する最良の攻撃者のために攻撃空間を探索するパラメータ化された自動攻撃者である。
異なるデータセットにわたる大規模な実験により、A2は低コストで強い摂動を発生し、異なる攻撃に対する様々なAT手法の堅牢性を確実に改善することを示した。
関連論文リスト
- Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Towards Deep Learning Models Resistant to Transfer-based Adversarial
Attacks via Data-centric Robust Learning [16.53553150596255]
敵の訓練(AT)は、ホワイトボックス攻撃に対する最強の防御として認められている。
我々はこの新しい防衛パラダイムをデータ中心ロバスト学習(DRL)と呼ぶ。
論文 参考訳(メタデータ) (2023-10-15T17:20:42Z) - AROID: Improving Adversarial Robustness Through Online Instance-Wise Data Augmentation [6.625868719336385]
対戦訓練(英語: Adversarial Training、AT)は、敵の例に対する効果的な防御である。
データ拡張(DA)は、AT向けに適切に設計され最適化された場合、ロバストなオーバーフィッティングの軽減に有効であることが示されている。
本研究は、ATの堅牢な一般化を改善するために、オンライン、例えばDAポリシーを自動的に学習する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-06-12T15:54:52Z) - Analysis and Extensions of Adversarial Training for Video Classification [0.0]
ビデオに対して最適な攻撃を生成するには、特にステップサイズにおいて、攻撃パラメータを慎重に調整する必要があることを示す。
本稿では,攻撃予算の変動による攻撃に対する3つの防御策を提案する。
UCF101データセットの実験は、提案手法が複数の攻撃タイプに対する対角的堅牢性を向上させることを示した。
論文 参考訳(メタデータ) (2022-06-16T06:49:01Z) - LAS-AT: Adversarial Training with Learnable Attack Strategy [82.88724890186094]
LAS-ATと呼ばれる「学習可能な攻撃戦略」は、モデル堅牢性を改善するための攻撃戦略を自動生成することを学ぶ。
当社のフレームワークは,強靭性向上のためのトレーニングにAEを使用するターゲットネットワークと,AE生成を制御するための攻撃戦略を生成する戦略ネットワークで構成されている。
論文 参考訳(メタデータ) (2022-03-13T10:21:26Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Lagrangian Objective Function Leads to Improved Unforeseen Attack
Generalization in Adversarial Training [0.0]
対人訓練(AT)は、訓練中に使用される攻撃に対して堅牢なモデルに到達するのに有効であることが示されている。
我々は、上記の問題を緩和する簡易なAT修正を提案する。
我々は,攻撃の一般化を意図した他の攻撃手法よりも,攻撃速度が速いことを示す。
論文 参考訳(メタデータ) (2021-03-29T07:23:46Z) - Self-Progressing Robust Training [146.8337017922058]
敵対的なトレーニングのような現在の堅牢なトレーニング方法は、敵対的な例を生成するために「攻撃」を明示的に使用します。
我々はSPROUTと呼ばれる自己プログレッシブ・ロバスト・トレーニングのための新しいフレームワークを提案する。
その結果,スケーラブルで効果的で攻撃に依存しないロバストなトレーニング手法に新たな光を当てた。
論文 参考訳(メタデータ) (2020-12-22T00:45:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。