論文の概要: Towards Sharper First-Order Adversary with Quantized Gradients
- arxiv url: http://arxiv.org/abs/2002.02372v1
- Date: Sat, 1 Feb 2020 14:33:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 01:21:25.717999
- Title: Towards Sharper First-Order Adversary with Quantized Gradients
- Title(参考訳): 量子化グラディエントを用いたシャーパー第一次逆数に向けて
- Authors: Zhuanghua Liu and Ivor W. Tsang
- Abstract要約: 敵の訓練は最も成功した 敵の攻撃に対する防御だった
最先端の1次攻撃では、符号勾配を持つ逆例は各勾配成分の符号情報を保持するが、成分間の相対等級は捨てる。
勾配量子化は符号情報を保存するだけでなく、成分間の相対等級も保持する。
- 参考スコア(独自算出の注目度): 43.02047596005796
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Despite the huge success of Deep Neural Networks (DNNs) in a wide spectrum of
machine learning and data mining tasks, recent research shows that this
powerful tool is susceptible to maliciously crafted adversarial examples. Up
until now, adversarial training has been the most successful defense against
adversarial attacks. To increase adversarial robustness, a DNN can be trained
with a combination of benign and adversarial examples generated by first-order
methods. However, in state-of-the-art first-order attacks, adversarial examples
with sign gradients retain the sign information of each gradient component but
discard the relative magnitude between components. In this work, we replace
sign gradients with quantized gradients. Gradient quantization not only
preserves the sign information, but also keeps the relative magnitude between
components. Experiments show white-box first-order attacks with quantized
gradients outperform their variants with sign gradients on multiple datasets.
Notably, our BLOB\_QG attack achieves an accuracy of $88.32\%$ on the secret
MNIST model from the MNIST Challenge and it outperforms all other methods on
the leaderboard of white-box attacks.
- Abstract(参考訳): 機械学習とデータマイニングタスクの幅広い分野でDeep Neural Networks(DNN)が大きな成功を収めているにも関わらず、最近の研究によると、この強力なツールは悪意のある敵の例に影響を受けやすい。
これまで、敵の訓練は敵の攻撃に対する最も成功した防御であった。
対向ロバスト性を高めるために、DNNは、一階法で生成された良性例と逆性例の組み合わせで訓練することができる。
しかし、最先端の1次攻撃では、符号勾配を持つ逆例は各勾配成分の符号情報を保持するが、成分間の相対等級は捨てる。
本研究では,符号勾配を量子化勾配に置き換える。
勾配量子化は符号情報を保存するだけでなく、成分間の相対等級も保持する。
実験では、量子化グラデーションを持つホワイトボックスの1次攻撃が、複数のデータセット上の符号勾配で変種よりも優れていた。
特に、我々のBLOB\_QG攻撃は、MNIST Challengeの秘密MNISTモデルで8.32$%の精度を達成し、ホワイトボックス攻撃のリーダーボード上での他の方法よりも優れています。
関連論文リスト
- Rethinking PGD Attack: Is Sign Function Necessary? [131.6894310945647]
本稿では,このような手話に基づく更新アルゴリズムが段階的攻撃性能にどのように影響するかを理論的に分析する。
本稿では,手話の使用を排除したRGDアルゴリズムを提案する。
提案したRGDアルゴリズムの有効性は実験で広く実証されている。
論文 参考訳(メタデータ) (2023-12-03T02:26:58Z) - An Eye for an Eye: Defending against Gradient-based Attacks with
Gradients [24.845539113785552]
勾配に基づく敵攻撃は高い成功率を示している。
この勾配は、敵の攻撃から防御するための強力な武器として利用することもできる。
勾配図と逆画像の両方を入力として使用することにより、逆画像の復元を行う2ストリーム復元ネットワーク(TRN)を提案する。
論文 参考訳(メタデータ) (2022-02-02T16:22:28Z) - Byzantine-robust Federated Learning through Collaborative Malicious
Gradient Filtering [32.904425716385575]
勾配ベクトルの要素ワイドサインは, モデル中毒攻撃の検出に有用であることを示す。
そこで本稿では,Byzantine-robust フェデレーション学習を有害な勾配フィルタリングによって実現するための textitSignGuard という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-13T11:15:15Z) - Staircase Sign Method for Boosting Adversarial Attacks [123.19227129979943]
トランスファーベースの攻撃の敵の例を作るのは難しいし、研究のホットスポットだ。
そこで本研究では,この問題を緩和するための新しい階段サイン法(S$2$M)を提案する。
我々の手法は一般に転送ベースの攻撃と統合することができ、計算オーバーヘッドは無視できる。
論文 参考訳(メタデータ) (2021-04-20T02:31:55Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。