論文の概要: Learning to Generate Noise for Multi-Attack Robustness
- arxiv url: http://arxiv.org/abs/2006.12135v4
- Date: Thu, 24 Jun 2021 18:41:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 04:26:18.689305
- Title: Learning to Generate Noise for Multi-Attack Robustness
- Title(参考訳): マルチアタックロバストネスのための雑音生成学習
- Authors: Divyam Madaan, Jinwoo Shin, Sung Ju Hwang
- Abstract要約: 対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 126.23656251512762
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial learning has emerged as one of the successful techniques to
circumvent the susceptibility of existing methods against adversarial
perturbations. However, the majority of existing defense methods are tailored
to defend against a single category of adversarial perturbation (e.g.
$\ell_\infty$-attack). In safety-critical applications, this makes these
methods extraneous as the attacker can adopt diverse adversaries to deceive the
system. Moreover, training on multiple perturbations simultaneously
significantly increases the computational overhead during training. To address
these challenges, we propose a novel meta-learning framework that explicitly
learns to generate noise to improve the model's robustness against multiple
types of attacks. Its key component is Meta Noise Generator (MNG) that outputs
optimal noise to stochastically perturb a given sample, such that it helps
lower the error on diverse adversarial perturbations. By utilizing samples
generated by MNG, we train a model by enforcing the label consistency across
multiple perturbations. We validate the robustness of models trained by our
scheme on various datasets and against a wide variety of perturbations,
demonstrating that it significantly outperforms the baselines across multiple
perturbations with a marginal computational cost.
- Abstract(参考訳): 対人学習は、対人摂動に対する既存の方法の感受性を回避できる技術として成功している。
しかし、既存の防御手法の大半は、敵の摂動の単一のカテゴリ(例えば$\ell_\infty$-攻撃)に対して防御するように調整されている。
安全クリティカルなアプリケーションでは、攻撃者がシステムを欺くために様々な敵を採用できるため、これらの手法は余計なものになります。
さらに、複数の摂動のトレーニングは、トレーニング中の計算オーバーヘッドを大幅に増加させる。
これらの課題に対処するために,複数の種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ生成を明示的に学習する新しいメタラーニングフレームワークを提案する。
主な構成要素はメタノイズ発生器(MNG)で、与えられたサンプルを確率的に摂動させるために最適なノイズを出力する。
mngが生成するサンプルを利用して複数の摂動にまたがるラベル一貫性を強制してモデルを訓練する。
各種の摂動に対して,提案手法により訓練したモデルのロバスト性を検証し,計算コストを極端に抑えながら,複数の摂動にまたがるベースラインを著しく上回ることを示す。
関連論文リスト
- DAT: Improving Adversarial Robustness via Generative Amplitude Mix-up in Frequency Domain [23.678658814438855]
敵の攻撃からディープニューラルネットワーク(DNN)を保護するために、敵の訓練(AT)が開発された。
近年の研究では、敵対的攻撃がサンプルの周波数スペクトルの位相内のパターンに不均等に影響を及ぼすことが示されている。
モデルの堅牢性向上と位相パターンの維持のトレードオフを改善するために, 最適化された逆振幅発生器 (AAG) を提案する。
論文 参考訳(メタデータ) (2024-10-16T07:18:36Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Robust Deep Learning Models Against Semantic-Preserving Adversarial
Attack [3.7264705684737893]
ディープラーニングモデルは、小さな$l_p$-normの逆の摂動と、属性の観点からの自然な摂動によって騙される。
本稿では,SPA攻撃という新たな攻撃機構を提案する。
論文 参考訳(メタデータ) (2023-04-08T08:28:36Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Threat Model-Agnostic Adversarial Defense using Diffusion Models [14.603209216642034]
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
論文 参考訳(メタデータ) (2022-07-17T06:50:48Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - DVERGE: Diversifying Vulnerabilities for Enhanced Robust Generation of
Ensembles [20.46399318111058]
敵攻撃は、小さな摂動でCNNモデルを誤解させる可能性があるため、同じデータセットでトレーニングされた異なるモデル間で効果的に転送することができる。
非破壊的特徴を蒸留することにより,各サブモデルの逆脆弱性を分離するDVERGEを提案する。
新たな多様性基準とトレーニング手順により、DVERGEは転送攻撃に対して高い堅牢性を達成することができる。
論文 参考訳(メタデータ) (2020-09-30T14:57:35Z) - Learning to Learn from Mistakes: Robust Optimization for Adversarial
Noise [1.976652238476722]
我々はメタ最適化器を訓練し、敵対的な例を使ってモデルを堅牢に最適化することを学び、学習した知識を新しいモデルに転送することができる。
実験の結果、メタ最適化は異なるアーキテクチャやデータセット間で一貫性があることが示され、敵の脆弱性を自動的にパッチすることができることが示唆された。
論文 参考訳(メタデータ) (2020-08-12T11:44:01Z) - Regularizers for Single-step Adversarial Training [49.65499307547198]
本稿では,1ステップの対数学習手法を用いて,ロバストモデル学習を支援する3種類の正則化器を提案する。
正規化器は、ロバストモデルと擬ロバストモデルとを区別する特性を利用することにより、勾配マスキングの効果を緩和する。
論文 参考訳(メタデータ) (2020-02-03T09:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。