論文の概要: Imbalanced Gradients: A Subtle Cause of Overestimated Adversarial
Robustness
- arxiv url: http://arxiv.org/abs/2006.13726v3
- Date: Wed, 3 Nov 2021 14:23:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 10:17:26.828962
- Title: Imbalanced Gradients: A Subtle Cause of Overestimated Adversarial
Robustness
- Title(参考訳): 不均衡勾配:過大評価逆境ロバスト性の原因
- Authors: Xingjun Ma, Linxi Jiang, Hanxun Huang, Zejia Weng, James Bailey,
Yu-Gang Jiang
- Abstract要約: 本稿では,不均衡勾配という,過度に推定された敵の強靭性も引き起こす,より微妙な状況を特定する。
不均衡勾配の現象は、マージン損失の一項の勾配が支配的となり、攻撃を準最適方向に押し上げるときに起こる。
2018年以降に提案された17の防衛モデルを調べることで、6つのモデルが不均衡な勾配の影響を受けており、我々のMD攻撃は、最高のベースラインアタックによって評価されるロバスト性を、さらに2%減らすことができることがわかった。
- 参考スコア(独自算出の注目度): 75.30116479840619
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evaluating the robustness of a defense model is a challenging task in
adversarial robustness research. Obfuscated gradients, a type of gradient
masking, have previously been found to exist in many defense methods and cause
a false signal of robustness. In this paper, we identify a more subtle
situation called Imbalanced Gradients that can also cause overestimated
adversarial robustness. The phenomenon of imbalanced gradients occurs when the
gradient of one term of the margin loss dominates and pushes the attack towards
to a suboptimal direction. To exploit imbalanced gradients, we formulate a
Margin Decomposition (MD) attack that decomposes a margin loss into individual
terms and then explores the attackability of these terms separately via a
two-stage process. We also propose a MultiTargeted and an ensemble version of
our MD attack. By investigating 17 defense models proposed since 2018, we find
that 6 models are susceptible to imbalanced gradients and our MD attack can
decrease their robustness evaluated by the best baseline standalone attack by
another 2%. We also provide an in-depth analysis of the likely causes of
imbalanced gradients and effective countermeasures.
- Abstract(参考訳): 防御モデルの堅牢性を評価することは、敵の堅牢性研究において難しい課題である。
グラデーションマスキングの一種である難解勾配は、以前は多くの防御方法に存在し、強靭性の誤ったシグナルを引き起こすことが発見されている。
本稿では,不均衡勾配という,過度に推定された敵の強靭性も引き起こす,より微妙な状況を特定する。
不均衡勾配の現象は、マージン損失の一項の勾配が支配的となり、攻撃を準最適方向に進めるときに起こる。
不均衡勾配を利用するために、マージン分解(MD)攻撃を定式化し、各項にマージン損失を分解し、2段階のプロセスを通してこれらの項の攻撃可能性を探る。
また,md攻撃のマルチターゲット版とアンサンブル版を提案する。
2018年以降に提案された17の防御モデルを調査することで、6つのモデルが不均衡勾配に影響を受けやすく、我々のmd攻撃は、最良のベースライン・アタックによって評価されるロバスト性が2%低下することが分かった。
また,不均衡な勾配の原因と効果的な対策の詳細な分析を行った。
関連論文リスト
- DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - DiffAttack: Evasion Attacks Against Diffusion-Based Adversarial
Purification [63.65630243675792]
拡散に基づく浄化防御は拡散モデルを利用して、敵の例の人工摂動を除去する。
近年の研究では、先進的な攻撃でさえ、そのような防御を効果的に破壊できないことが示されている。
拡散型浄化防衛を効果的かつ効率的に行うための統合フレームワークDiffAttackを提案する。
論文 参考訳(メタデータ) (2023-10-27T15:17:50Z) - RECESS Vaccine for Federated Learning: Proactive Defense Against Model Poisoning Attacks [20.55681622921858]
モデル中毒は、フェデレートラーニング(FL)の適用を著しく阻害する
本研究では,モデル中毒に対するRECESSという新しいプロアクティブ・ディフェンスを提案する。
各イテレーションをスコアする従来の方法とは異なり、RECESSはクライアントのパフォーマンス相関を複数のイテレーションで考慮し、信頼スコアを見積もる。
論文 参考訳(メタデータ) (2023-10-09T06:09:01Z) - A Closer Look at the Adversarial Robustness of Deep Equilibrium Models [25.787638780625514]
我々は、DECの中間勾配を推定し、攻撃パイプラインに統合するためのアプローチを開発する。
提案手法は,完全ホワイトボックス評価を促進するとともに,DECに対する効果的な敵防衛に繋がる。
論文 参考訳(メタデータ) (2023-06-02T10:40:30Z) - IDEA: Invariant Defense for Graph Adversarial Robustness [60.0126873387533]
敵攻撃に対する不変因果判定法(IDEA)を提案する。
我々は,情報理論の観点から,ノードと構造に基づく分散目標を導出する。
実験によると、IDEAは5つのデータセットすべてに対する5つの攻撃に対して、最先端の防御性能を達成している。
論文 参考訳(メタデータ) (2023-05-25T07:16:00Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z) - On the Effectiveness of Mitigating Data Poisoning Attacks with Gradient
Shaping [36.41173109033075]
機械学習アルゴリズムは、データ中毒攻撃に弱い。
本研究は,全ての中毒攻撃に共通するアーティファクトに依存する攻撃非依存防衛の実現可能性について検討する。
論文 参考訳(メタデータ) (2020-02-26T14:04:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。