論文の概要: LAS-AT: Adversarial Training with Learnable Attack Strategy
- arxiv url: http://arxiv.org/abs/2203.06616v1
- Date: Sun, 13 Mar 2022 10:21:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 16:06:47.852096
- Title: LAS-AT: Adversarial Training with Learnable Attack Strategy
- Title(参考訳): LAS-AT: 学習可能な攻撃戦略による敵の訓練
- Authors: Xiaojun Jia, Yong Zhang, Baoyuan Wu, Ke Ma, Jue Wang, Xiaochun Cao
- Abstract要約: LAS-ATと呼ばれる「学習可能な攻撃戦略」は、モデル堅牢性を改善するための攻撃戦略を自動生成することを学ぶ。
当社のフレームワークは,強靭性向上のためのトレーニングにAEを使用するターゲットネットワークと,AE生成を制御するための攻撃戦略を生成する戦略ネットワークで構成されている。
- 参考スコア(独自算出の注目度): 82.88724890186094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial training (AT) is always formulated as a minimax problem, of which
the performance depends on the inner optimization that involves the generation
of adversarial examples (AEs). Most previous methods adopt Projected Gradient
Decent (PGD) with manually specifying attack parameters for AE generation. A
combination of the attack parameters can be referred to as an attack strategy.
Several works have revealed that using a fixed attack strategy to generate AEs
during the whole training phase limits the model robustness and propose to
exploit different attack strategies at different training stages to improve
robustness. But those multi-stage hand-crafted attack strategies need much
domain expertise, and the robustness improvement is limited. In this paper, we
propose a novel framework for adversarial training by introducing the concept
of "learnable attack strategy", dubbed LAS-AT, which learns to automatically
produce attack strategies to improve the model robustness. Our framework is
composed of a target network that uses AEs for training to improve robustness
and a strategy network that produces attack strategies to control the AE
generation. Experimental evaluations on three benchmark databases demonstrate
the superiority of the proposed method. The code is released at
https://github.com/jiaxiaojunQAQ/LAS-AT.
- Abstract(参考訳): 逆トレーニング(AT)は常にミニマックス問題として定式化され、その性能は逆例(AE)の生成を伴う内部最適化に依存する。
従来のほとんどの手法では、AE生成の攻撃パラメータを手動で指定するPGD(Projected Gradient Decent)を採用していた。
攻撃パラメータの組み合わせを攻撃戦略と呼ぶことができる。
いくつかの研究により、トレーニングフェーズ全体でAEを生成するための固定攻撃戦略がモデルロバスト性を制限し、異なるトレーニング段階における異なる攻撃戦略を利用してロバスト性を改善することを提案する。
しかし、これらの多段階の手作り攻撃戦略はドメインの専門知識を必要とし、堅牢性の改善は限られている。
本稿では,モデルロバスト性を改善するための攻撃戦略を自動生成することを学ぶlas-atと呼ばれる「学習可能な攻撃戦略」の概念を導入することで,敵対的訓練のための新しい枠組みを提案する。
当社のフレームワークは,強靭性向上のためのトレーニングにAEを使用するターゲットネットワークと,AE生成を制御するための攻撃戦略を生成する戦略ネットワークで構成されている。
3つのベンチマークデータベースを用いた実験により,提案手法の優位性を示す。
コードはhttps://github.com/jiaxiaojunqaq/las-atでリリースされる。
関連論文リスト
- Optimizing Cyber Defense in Dynamic Active Directories through Reinforcement Learning [10.601458163651582]
本稿では,動的実世界のネットワークにおけるエッジブロッキングACO戦略の欠如に対処する。
具体的には、組織的Active Directory(AD)システムのサイバーセキュリティ脆弱性を対象とする。
ADシステムを静的エンティティとみなす、エッジブロッキング防衛に関する既存の文献とは異なり、本研究では、それらの動的性質を認識してこれに対応する。
論文 参考訳(メタデータ) (2024-06-28T01:37:46Z) - Analysis and Extensions of Adversarial Training for Video Classification [0.0]
ビデオに対して最適な攻撃を生成するには、特にステップサイズにおいて、攻撃パラメータを慎重に調整する必要があることを示す。
本稿では,攻撃予算の変動による攻撃に対する3つの防御策を提案する。
UCF101データセットの実験は、提案手法が複数の攻撃タイプに対する対角的堅牢性を向上させることを示した。
論文 参考訳(メタデータ) (2022-06-16T06:49:01Z) - Projective Ranking-based GNN Evasion Attacks [52.85890533994233]
グラフニューラルネットワーク(GNN)は、グラフ関連のタスクに対して、有望な学習方法を提供する。
GNNは敵の攻撃の危険にさらされている。
論文 参考訳(メタデータ) (2022-02-25T21:52:09Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Robust Federated Learning with Attack-Adaptive Aggregation [45.60981228410952]
フェデレート学習は、モデル中毒やバックドア攻撃など、様々な攻撃に対して脆弱である。
本研究では,ロバスト学習のためのアタック・アダプティブ・アグリゲーション戦略を提案する。
論文 参考訳(メタデータ) (2021-02-10T04:23:23Z) - Self-Progressing Robust Training [146.8337017922058]
敵対的なトレーニングのような現在の堅牢なトレーニング方法は、敵対的な例を生成するために「攻撃」を明示的に使用します。
我々はSPROUTと呼ばれる自己プログレッシブ・ロバスト・トレーニングのための新しいフレームワークを提案する。
その結果,スケーラブルで効果的で攻撃に依存しないロバストなトレーニング手法に新たな光を当てた。
論文 参考訳(メタデータ) (2020-12-22T00:45:24Z) - Boosting Adversarial Training with Hypersphere Embedding [53.75693100495097]
敵対的訓練は、ディープラーニングモデルに対する敵対的攻撃に対する最も効果的な防御の1つである。
本研究では,超球埋め込み機構をATプロシージャに組み込むことを提唱する。
我々は,CIFAR-10 と ImageNet データセットに対する幅広い敵対攻撃の下で本手法を検証した。
論文 参考訳(メタデータ) (2020-02-20T08:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。