論文の概要: TEAM: An Taylor Expansion-Based Method for Generating Adversarial
Examples
- arxiv url: http://arxiv.org/abs/2001.08389v2
- Date: Wed, 25 Mar 2020 15:08:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 10:10:40.721197
- Title: TEAM: An Taylor Expansion-Based Method for Generating Adversarial
Examples
- Title(参考訳): TEAM:Taylorの拡張に基づく逆例生成手法
- Authors: Ya-guan Qian, Xi-Ming Zhang, Wassim Swaileh, Li Wei, Bin Wang,
Jian-Hai Chen, Wu-Jie Zhou, and Jing-Sheng Lei
- Abstract要約: ディープニューラル(DNN)は多くの分野で成功している。
対人訓練は、堅牢性を改善するための最も効果的な方法の1つである。
DNNを効果的に正規化し、モデルの欠陥を改善することができる。
- 参考スコア(独自算出の注目度): 20.589548370628535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although Deep Neural Networks(DNNs) have achieved successful applications in
many fields, they are vulnerable to adversarial examples.Adversarial training
is one of the most effective methods to improve the robustness of DNNs, and it
is generally considered as solving a saddle point problem that minimizes risk
and maximizes perturbation.Therefore, powerful adversarial examples can
effectively replicate the situation of perturbation maximization to solve the
saddle point problem.The method proposed in this paper approximates the output
of DNNs in the input neighborhood by using the Taylor expansion, and then
optimizes it by using the Lagrange multiplier method to generate adversarial
examples. If it is used for adversarial training, the DNNs can be effectively
regularized and the defects of the model can be improved.
- Abstract(参考訳): Although Deep Neural Networks(DNNs) have achieved successful applications in many fields, they are vulnerable to adversarial examples.Adversarial training is one of the most effective methods to improve the robustness of DNNs, and it is generally considered as solving a saddle point problem that minimizes risk and maximizes perturbation.Therefore, powerful adversarial examples can effectively replicate the situation of perturbation maximization to solve the saddle point problem.The method proposed in this paper approximates the output of DNNs in the input neighborhood by using the Taylor expansion, and then optimizes it by using the Lagrange multiplier method to generate adversarial examples.
敵の訓練に使用すれば、DNNを効果的に正規化し、モデルの欠陥を改善することができる。
関連論文リスト
- QUCE: The Minimisation and Quantification of Path-Based Uncertainty for Generative Counterfactual Explanations [1.649938899766112]
Quantified Uncertainty Counterfactual Explanations (QUCE) は、経路の不確実性を最小化する手法である。
そこで本研究では,QUCEが説明文の提示時に不確実性を定量化し,より確実な逆実例を生成することを示す。
本稿では,QUCE法の性能を,経路に基づく説明法と生成対実例の両方の競合手法と比較することによって示す。
論文 参考訳(メタデータ) (2024-02-27T14:00:08Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Hessian-Free Second-Order Adversarial Examples for Adversarial Learning [6.835470949075655]
厳密に設計された敵の例による敵の学習は、そのような攻撃に対して最も効果的な方法の1つである。
既存のほとんどの逆例生成法は1次勾配に基づいており、モデルのロバスト性を改善することはほとんどできない。
そこで我々は,この問題をKrylov部分空間の最適化に変換することで,計算複雑性を著しく低減し,学習手順を高速化する近似法を提案する。
論文 参考訳(メタデータ) (2022-07-04T13:29:27Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - On the Convergence and Robustness of Adversarial Training [134.25999006326916]
Project Gradient Decent (PGD) によるアドリアリトレーニングが最も効果的である。
生成した逆数例の収束性を向上させるためのテクトダイナミックトレーニング戦略を提案する。
その結果,提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2021-12-15T17:54:08Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - TEAM: We Need More Powerful Adversarial Examples for DNNs [6.7943676146532885]
敵対的な例はディープニューラルネットワーク(DNN)の誤分類につながる可能性がある
本稿では,従来の手法よりも強力な逆例を生成する新しい手法を提案する。
攻撃成功率100% (ASR) の逆例を, より小さい摂動のみで確実に生成することができる。
論文 参考訳(メタデータ) (2020-07-31T04:11:02Z) - Towards an Efficient and General Framework of Robust Training for Graph
Neural Networks [96.93500886136532]
グラフニューラルネットワーク(GNN)は、いくつかの基本的な推論タスクに大きく進歩している。
GNNの目覚ましい性能にもかかわらず、グラフ構造上の摂動を慎重に作り、誤った予測を下すことが観察されている。
我々は,強靭なGNNを得るために,欲求探索アルゴリズムとゼロ階法を利用する汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T15:17:58Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。