論文の概要: Adversarial examples attack based on random warm restart mechanism and
improved Nesterov momentum
- arxiv url: http://arxiv.org/abs/2105.05029v1
- Date: Mon, 10 May 2021 07:24:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 09:14:48.718581
- Title: Adversarial examples attack based on random warm restart mechanism and
improved Nesterov momentum
- Title(参考訳): ランダムな温度再起動機構とNesterov運動量改善に基づく逆例攻撃
- Authors: Tiangang Li
- Abstract要約: 一部の研究は、ディープラーニングモデルが敵の例を攻撃し、誤った判断に弱いことを指摘している。
ランダムなウォームリスタート機構とネステロフ運動量改善に基づくRWR-NM-PGD攻撃アルゴリズムを提案する。
攻撃成功率は平均46.3077%であり,I-FGSMより27.19%,PGDより9.27%高い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The deep learning algorithm has achieved great success in the field of
computer vision, but some studies have pointed out that the deep learning model
is vulnerable to attacks adversarial examples and makes false decisions. This
challenges the further development of deep learning, and urges researchers to
pay more attention to the relationship between adversarial examples attacks and
deep learning security. This work focuses on adversarial examples, optimizes
the generation of adversarial examples from the view of adversarial robustness,
takes the perturbations added in adversarial examples as the optimization
parameter. We propose RWR-NM-PGD attack algorithm based on random warm restart
mechanism and improved Nesterov momentum from the view of gradient
optimization. The algorithm introduces improved Nesterov momentum, using its
characteristics of accelerating convergence and improving gradient update
direction in optimization algorithm to accelerate the generation of adversarial
examples. In addition, the random warm restart mechanism is used for
optimization, and the projected gradient descent algorithm is used to limit the
range of the generated perturbations in each warm restart, which can obtain
better attack effect. Experiments on two public datasets show that the
algorithm proposed in this work can improve the success rate of attacking deep
learning models without extra time cost. Compared with the benchmark attack
method, the algorithm proposed in this work can achieve better attack success
rate for both normal training model and defense model. Our method has average
attack success rate of 46.3077%, which is 27.19% higher than I-FGSM and 9.27%
higher than PGD. The attack results in 13 defense models show that the attack
algorithm proposed in this work is superior to the benchmark algorithm in
attack universality and transferability.
- Abstract(参考訳): 深層学習アルゴリズムはコンピュータビジョンの分野で大きな成功を収めているが、いくつかの研究は、深層学習モデルは敵の例を攻撃し、誤った判断に弱いことを指摘している。
このことは深層学習のさらなる発展に挑戦し、敵の事例攻撃と深層学習のセキュリティとの関係により多くの注意を払うよう研究者に促す。
本研究は, 対向例に着目し, 対向ロバスト性の観点から対向例の生成を最適化し, 対向例に付加される摂動を最適化パラメータとする。
本稿では,ランダムウォームリスタート機構に基づくrwr-nm-pgd攻撃アルゴリズムと勾配最適化の観点からのネステロフ運動量の改善を提案する。
このアルゴリズムは、収束を加速する特性と、逆例生成を高速化する最適化アルゴリズムにおける勾配更新方向の改善を用いて、ネステロフ運動量の改善を導入する。
さらに、ランダムなウォームリスタート機構を最適化に使用し、投射された勾配降下アルゴリズムを用いて、各ウォームリスタートで発生する摂動範囲を制限することにより、より優れた攻撃効果が得られる。
2つの公開データセットにおける実験により、本研究で提案するアルゴリズムは、余分な時間的コストなしで深層学習モデルへの攻撃の成功率を向上させることができることを示した。
ベンチマーク攻撃法と比較して,本研究で提案するアルゴリズムは,通常の訓練モデルと防御モデルの両方において,攻撃成功率を向上できる。
攻撃成功率は平均46.3077%であり,I-FGSMより27.19%,PGDより9.27%高い。
本研究で提案した攻撃アルゴリズムは,攻撃普遍性と伝達可能性において,ベンチマークアルゴリズムよりも優れていることを示す。
関連論文リスト
- MARS: Unleashing the Power of Variance Reduction for Training Large Models [56.47014540413659]
Adam、Adam、およびそれらの変種のような大規模な勾配アルゴリズムは、この種のトレーニングの開発の中心となっている。
本稿では,事前条件付き勾配最適化手法と,スケールドモーメント手法による分散低減を両立させる枠組みを提案する。
論文 参考訳(メタデータ) (2024-11-15T18:57:39Z) - GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - Defense Against Model Extraction Attacks on Recommender Systems [53.127820987326295]
本稿では、モデル抽出攻撃に対するリコメンデータシステムに対する防御のために、グラディエントベースのランキング最適化(GRO)を導入する。
GROは、攻撃者の代理モデルの損失を最大化しながら、保護対象モデルの損失を最小限にすることを目的としている。
その結果,モデル抽出攻撃に対するGROの防御効果は良好であった。
論文 参考訳(メタデータ) (2023-10-25T03:30:42Z) - Enhancing Adversarial Attacks: The Similar Target Method [6.293148047652131]
敵対的な例は、ディープニューラルネットワークのアプリケーションに脅威をもたらす。
ディープニューラルネットワークは敵の例に対して脆弱であり、モデルのアプリケーションに脅威を与え、セキュリティ上の懸念を提起する。
我々はSimisal Target(ST)という類似の攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T14:16:36Z) - Enhancing Adversarial Robustness via Score-Based Optimization [22.87882885963586]
敵対的攻撃は、わずかな摂動を導入することによって、ディープニューラルネットワーク分類器を誤認する可能性がある。
ScoreOptと呼ばれる新しい対向防御方式を導入し、テスト時に対向サンプルを最適化する。
実験の結果,本手法は性能とロバスト性の両方において,既存の敵防御よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-07-10T03:59:42Z) - A Multi-objective Memetic Algorithm for Auto Adversarial Attack
Optimization Design [1.9100854225243937]
良く設計された敵防衛戦略は、敵の例に対するディープラーニングモデルの堅牢性を改善することができる。
防御モデルを考えると、計算負担が少なく、ロバストな精度の低い効率的な敵攻撃を更に活用する必要がある。
本稿では,防衛モデルに対する準最適攻撃の自動探索を実現する自動対向攻撃最適化設計のための多目的メメティックアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-15T03:03:05Z) - Hessian-Free Second-Order Adversarial Examples for Adversarial Learning [6.835470949075655]
厳密に設計された敵の例による敵の学習は、そのような攻撃に対して最も効果的な方法の1つである。
既存のほとんどの逆例生成法は1次勾配に基づいており、モデルのロバスト性を改善することはほとんどできない。
そこで我々は,この問題をKrylov部分空間の最適化に変換することで,計算複雑性を著しく低減し,学習手順を高速化する近似法を提案する。
論文 参考訳(メタデータ) (2022-07-04T13:29:27Z) - Revisiting and Advancing Fast Adversarial Training Through The Lens of
Bi-Level Optimization [60.72410937614299]
提案手法は,2レベルAT(FAST-BAT)と呼ばれる新しいアルゴリズムセットの設計と解析である。
FAST-BATは、グラデーションサインメソッドや明示的なロバスト正規化を呼ぶことなく、符号ベースの投射降下(PGD)攻撃を防御することができる。
論文 参考訳(メタデータ) (2021-12-23T06:25:36Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。