論文の概要: Scaling Adversarial Training to Large Perturbation Bounds
- arxiv url: http://arxiv.org/abs/2210.09852v1
- Date: Tue, 18 Oct 2022 13:34:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 13:11:34.587331
- Title: Scaling Adversarial Training to Large Perturbation Bounds
- Title(参考訳): 大規模摂動境界に対する逆行訓練のスケーリング
- Authors: Sravanti Addepalli, Samyak Jain, Gaurang Sriramanan, R.Venkatesh Babu
- Abstract要約: 逆トレーニングアルゴリズムは、低等級Lpノルム境界内で制約された攻撃を防御することを目的としている。
我々は,人間(あるいはOracle)の予測を変えることなく,知覚可能な摂動に対して,より大きな境界内で敵の堅牢性を達成することを目指している。
我々は,Oracle-Aligned Adversarial Training (OA-AT) という新たな防衛手法を提案する。
- 参考スコア(独自算出の注目度): 46.86097477465267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The vulnerability of Deep Neural Networks to Adversarial Attacks has fuelled
research towards building robust models. While most Adversarial Training
algorithms aim at defending attacks constrained within low magnitude Lp norm
bounds, real-world adversaries are not limited by such constraints. In this
work, we aim to achieve adversarial robustness within larger bounds, against
perturbations that may be perceptible, but do not change human (or Oracle)
prediction. The presence of images that flip Oracle predictions and those that
do not makes this a challenging setting for adversarial robustness. We discuss
the ideal goals of an adversarial defense algorithm beyond perceptual limits,
and further highlight the shortcomings of naively extending existing training
algorithms to higher perturbation bounds. In order to overcome these
shortcomings, we propose a novel defense, Oracle-Aligned Adversarial Training
(OA-AT), to align the predictions of the network with that of an Oracle during
adversarial training. The proposed approach achieves state-of-the-art
performance at large epsilon bounds (such as an L-inf bound of 16/255 on
CIFAR-10) while outperforming existing defenses (AWP, TRADES, PGD-AT) at
standard bounds (8/255) as well.
- Abstract(参考訳): Deep Neural Networks to Adversarial Attacksの脆弱性は、堅牢なモデル構築に向けた研究を加速させている。
ほとんどの敵訓練アルゴリズムは、Lpノルム境界内で制約された攻撃を防御することを目的としているが、現実の敵はそのような制約によって制限されない。
本研究は,人間(あるいはオラクル)の予測を変えることなく,知覚可能な摂動に対して,より大きな境界内で敵の堅牢性を達成することを目的としている。
oracleの予測を覆すイメージと、それではないイメージの存在は、敵対的ロバスト性にとって困難な設定である。
敵防御アルゴリズムの理想的目標を知覚的限界を超えて議論し、既存の訓練アルゴリズムをより高い摂動限界にネイティブに拡張することの欠点をさらに強調する。
これらの欠点を克服するために,我々は,新たな防御的 oracle-aligned adversarial training (oa-at) を提案する。
提案手法は,既存の防御(AWP, TRADES, PGD-AT)を標準境界(8/255)で上回りながら,大きなエプシロン境界(CIFAR-10のL-inf境界16/255など)における最先端性能を実現する。
関連論文リスト
- Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Towards Adversarial Realism and Robust Learning for IoT Intrusion
Detection and Classification [0.0]
IoT(Internet of Things)は、重大なセキュリティ上の課題に直面している。
敵の攻撃による脅威の増大は、信頼できる防衛戦略の必要性を回復させる。
本研究は、敵のサイバー攻撃事例が現実的であるために必要な制約の種類について述べる。
論文 参考訳(メタデータ) (2023-01-30T18:00:28Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Sparse Coding Frontend for Robust Neural Networks [11.36192454455449]
ディープニューラルネットワークは、小さくて逆向きに作られた摂動に弱いことが知られている。
現在の対人攻撃に対する防御方法は、対人訓練の変種である。
本稿では,クリーン画像に基づくスパース符号化に基づく根本的に異なる防御手法を提案する。
論文 参考訳(メタデータ) (2021-04-12T11:14:32Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Second Order Optimization for Adversarial Robustness and
Interpretability [6.700873164609009]
本稿では,2次近似による第1次及び第2次情報を対向損失に組み込んだ新しい正則化器を提案する。
正規化器における1つの繰り返しのみを用いることで、先行勾配や曲率正規化よりも強い強靭性が得られることが示されている。
それは、ネットワークが人間の知覚によく適合する機能を学ぶという、ATの興味深い側面を保っている。
論文 参考訳(メタデータ) (2020-09-10T15:05:14Z) - Improving adversarial robustness of deep neural networks by using
semantic information [17.887586209038968]
対人訓練は、敵の堅牢性を改善するための主要な方法であり、対人攻撃に対する第一線である。
本稿では,ネットワーク全体から,あるクラスに対応する決定境界に近い領域の重要部分に焦点を移す,対向ロバスト性の問題に対する新たな視点を提供する。
MNISTとCIFAR-10データセットの実験的結果は、この手法がトレーニングデータから非常に小さなデータセットを使用しても、敵の堅牢性を大幅に向上することを示している。
論文 参考訳(メタデータ) (2020-08-18T10:23:57Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。