論文の概要: Latent Boundary-guided Adversarial Training
- arxiv url: http://arxiv.org/abs/2206.03717v1
- Date: Wed, 8 Jun 2022 07:40:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 00:02:33.992197
- Title: Latent Boundary-guided Adversarial Training
- Title(参考訳): 境界誘導逆行訓練
- Authors: Xiaowei Zhou and Ivor W. Tsang and Jie Yin
- Abstract要約: モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 61.43040235982727
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Neural Networks (DNNs) have recently achieved great success in many
classification tasks. Unfortunately, they are vulnerable to adversarial attacks
that generate adversarial examples with a small perturbation to fool DNN
models, especially in model sharing scenarios. Adversarial training is proved
to be the most effective strategy that injects adversarial examples into model
training to improve the robustness of DNN models to adversarial attacks.
However, adversarial training based on the existing adversarial examples fails
to generalize well to standard, unperturbed test data. To achieve a better
trade-off between standard accuracy and adversarial robustness, we propose a
novel adversarial training framework called LAtent bounDary-guided aDvErsarial
tRaining (LADDER) that adversarially trains DNN models on latent
boundary-guided adversarial examples. As opposed to most of the existing
methods that generate adversarial examples in the input space, LADDER generates
a myriad of high-quality adversarial examples through adding perturbations to
latent features. The perturbations are made along the normal of the decision
boundary constructed by an SVM with an attention mechanism. We analyze the
merits of our generated boundary-guided adversarial examples from a boundary
field perspective and visualization view. Extensive experiments and detailed
analysis on MNIST, SVHN, CelebA, and CIFAR-10 validate the effectiveness of
LADDER in achieving a better trade-off between standard accuracy and
adversarial robustness as compared with vanilla DNNs and competitive baselines.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は近年,多くの分類タスクで大きな成功を収めている。
残念ながら、DNNモデル、特にモデル共有シナリオにおいて、小さな摂動で敵の例を生成する敵攻撃に対して脆弱である。
対戦訓練は、DNNモデルの堅牢性を改善するために、モデルトレーニングに敵の例を注入する最も効果的な戦略であることが証明されている。
しかし、既存の敵の例に基づく敵の訓練は、標準で不安定なテストデータにうまく一般化できない。
標準精度と対向ロバスト性とのトレードオフを改善するために, 潜在境界誘導対向訓練(ladder)と呼ばれる, 潜在境界誘導対向例としてdnnモデルを対向的に訓練する新しい対向訓練フレームワークを提案する。
入力空間の逆例を生成する既存の手法のほとんどとは対照的に、LADDERは潜伏した特徴に摂動を加えることによって、多数の高品質な逆例を生成する。
摂動は、注意機構を備えたSVMによって構成された決定境界の正規に沿って行われる。
境界場視点と可視化視点から, 生成した境界誘導逆例の利点を解析した。
MNIST,SVHN,CelebA,CIFAR-10の広範囲な実験と詳細な解析により,バニラDNNや競争ベースラインと比較して,標準精度と対向ロバスト性とのトレードオフが良好であることを示す。
関連論文リスト
- Enhancing Adversarial Robustness via Uncertainty-Aware Distributional Adversarial Training [43.766504246864045]
そこで本研究では,不確実性を考慮した分散対向学習手法を提案する。
提案手法は, 最先端の対向性を実現し, 自然性能を維持できる。
論文 参考訳(メタデータ) (2024-11-05T07:26:24Z) - Perturbation-Invariant Adversarial Training for Neural Ranking Models:
Improving the Effectiveness-Robustness Trade-Off [107.35833747750446]
正統な文書に不可避な摂動を加えることで 敵の例を作れます
この脆弱性は信頼性に関する重大な懸念を生じさせ、NRMの展開を妨げている。
本研究では,NRMにおける有効・損耗トレードオフに関する理論的保証を確立する。
論文 参考訳(メタデータ) (2023-12-16T05:38:39Z) - Effective Targeted Attacks for Adversarial Self-Supervised Learning [58.14233572578723]
ラベル情報を持たないモデルにおいて堅牢性を達成する手段として、教師なしの敵訓練(AT)が強調されている。
本稿では,敵のSSLフレームワークを効果的に生成するために,敵の攻撃を標的とした新たな正のマイニングを提案する。
提案手法は,非コントラスト型SSLフレームワークに適用した場合のロバストネスの大幅な向上と,コントラスト型SSLフレームワークによるロバストネスの向上を示す。
論文 参考訳(メタデータ) (2022-10-19T11:43:39Z) - Improved and Interpretable Defense to Transferred Adversarial Examples
by Jacobian Norm with Selective Input Gradient Regularization [31.516568778193157]
ディープニューラルネットワーク(DNN)の堅牢性を改善するために、AT(Adversarial Training)がよく用いられる。
本研究では,ジャコビアンノルムと選択的入力勾配正規化(J-SIGR)に基づくアプローチを提案する。
実験により、提案したJ-SIGRは、転送された敵攻撃に対するロバスト性を向上し、ニューラルネットワークからの予測が容易に解釈できることが示されている。
論文 参考訳(メタデータ) (2022-07-09T01:06:41Z) - Self-Ensemble Adversarial Training for Improved Robustness [14.244311026737666]
敵の訓練は、あらゆる種類の防衛方法において、様々な敵の攻撃に対する最強の戦略である。
最近の研究は主に新しい損失関数や正規化器の開発に重点を置いており、重み空間の特異な最適点を見つけようとしている。
我々は,歴史モデルの重みを平均化し,頑健な分類器を生成するための,単純だが強力なemphSelf-Ensemble Adversarial Training (SEAT)法を考案した。
論文 参考訳(メタデータ) (2022-03-18T01:12:18Z) - On the Convergence and Robustness of Adversarial Training [134.25999006326916]
Project Gradient Decent (PGD) によるアドリアリトレーニングが最も効果的である。
生成した逆数例の収束性を向上させるためのテクトダイナミックトレーニング戦略を提案する。
その結果,提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2021-12-15T17:54:08Z) - Knowledge Enhanced Machine Learning Pipeline against Diverse Adversarial
Attacks [10.913817907524454]
ドメイン知識をグラフィカルモデルに統合するための知識強化機械学習パイプライン(KEMLP)を提案する。
特に,主DNNモデルとの論理的関係に基づいて,多様な弱補助モデルを統合することで,KEMLPを開発する。
KEMLPは, 対人訓練やその他のベースラインと比較して, 物理的攻撃に対する高い堅牢性, $mathcalL_p$境界攻撃, 予期せぬ攻撃, および自然汚職を実現する。
論文 参考訳(メタデータ) (2021-06-11T08:37:53Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。