論文の概要: Imbalanced Gradients: A Subtle Cause of Overestimated Adversarial
Robustness
- arxiv url: http://arxiv.org/abs/2006.13726v3
- Date: Wed, 3 Nov 2021 14:23:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 10:17:26.828962
- Title: Imbalanced Gradients: A Subtle Cause of Overestimated Adversarial
Robustness
- Title(参考訳): 不均衡勾配:過大評価逆境ロバスト性の原因
- Authors: Xingjun Ma, Linxi Jiang, Hanxun Huang, Zejia Weng, James Bailey,
Yu-Gang Jiang
- Abstract要約: 本稿では,不均衡勾配という,過度に推定された敵の強靭性も引き起こす,より微妙な状況を特定する。
不均衡勾配の現象は、マージン損失の一項の勾配が支配的となり、攻撃を準最適方向に押し上げるときに起こる。
2018年以降に提案された17の防衛モデルを調べることで、6つのモデルが不均衡な勾配の影響を受けており、我々のMD攻撃は、最高のベースラインアタックによって評価されるロバスト性を、さらに2%減らすことができることがわかった。
- 参考スコア(独自算出の注目度): 75.30116479840619
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evaluating the robustness of a defense model is a challenging task in
adversarial robustness research. Obfuscated gradients, a type of gradient
masking, have previously been found to exist in many defense methods and cause
a false signal of robustness. In this paper, we identify a more subtle
situation called Imbalanced Gradients that can also cause overestimated
adversarial robustness. The phenomenon of imbalanced gradients occurs when the
gradient of one term of the margin loss dominates and pushes the attack towards
to a suboptimal direction. To exploit imbalanced gradients, we formulate a
Margin Decomposition (MD) attack that decomposes a margin loss into individual
terms and then explores the attackability of these terms separately via a
two-stage process. We also propose a MultiTargeted and an ensemble version of
our MD attack. By investigating 17 defense models proposed since 2018, we find
that 6 models are susceptible to imbalanced gradients and our MD attack can
decrease their robustness evaluated by the best baseline standalone attack by
another 2%. We also provide an in-depth analysis of the likely causes of
imbalanced gradients and effective countermeasures.
- Abstract(参考訳): 防御モデルの堅牢性を評価することは、敵の堅牢性研究において難しい課題である。
グラデーションマスキングの一種である難解勾配は、以前は多くの防御方法に存在し、強靭性の誤ったシグナルを引き起こすことが発見されている。
本稿では,不均衡勾配という,過度に推定された敵の強靭性も引き起こす,より微妙な状況を特定する。
不均衡勾配の現象は、マージン損失の一項の勾配が支配的となり、攻撃を準最適方向に進めるときに起こる。
不均衡勾配を利用するために、マージン分解(MD)攻撃を定式化し、各項にマージン損失を分解し、2段階のプロセスを通してこれらの項の攻撃可能性を探る。
また,md攻撃のマルチターゲット版とアンサンブル版を提案する。
2018年以降に提案された17の防御モデルを調査することで、6つのモデルが不均衡勾配に影響を受けやすく、我々のmd攻撃は、最良のベースライン・アタックによって評価されるロバスト性が2%低下することが分かった。
また,不均衡な勾配の原因と効果的な対策の詳細な分析を行った。
関連論文リスト
- DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - DiffAttack: Evasion Attacks Against Diffusion-Based Adversarial
Purification [63.65630243675792]
拡散に基づく浄化防御は拡散モデルを利用して、敵の例の人工摂動を除去する。
近年の研究では、先進的な攻撃でさえ、そのような防御を効果的に破壊できないことが示されている。
拡散型浄化防衛を効果的かつ効率的に行うための統合フレームワークDiffAttackを提案する。
論文 参考訳(メタデータ) (2023-10-27T15:17:50Z) - A Closer Look at the Adversarial Robustness of Deep Equilibrium Models [25.787638780625514]
我々は、DECの中間勾配を推定し、攻撃パイプラインに統合するためのアプローチを開発する。
提案手法は,完全ホワイトボックス評価を促進するとともに,DECに対する効果的な敵防衛に繋がる。
論文 参考訳(メタデータ) (2023-06-02T10:40:30Z) - Towards Reasonable Budget Allocation in Untargeted Graph Structure
Attacks via Gradient Debias [50.628150015907565]
クロスエントロピー損失関数は、分類タスクにおける摂動スキームを評価するために用いられる。
従来の手法ではノードレベルの分類モデルを攻撃する攻撃対象として負のクロスエントロピー損失を用いる。
本稿では、予算配分の観点から、これまでの不合理な攻撃目標について論じる。
論文 参考訳(メタデータ) (2023-03-29T13:02:02Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Adversarial Robustness of Stabilized NeuralODEs Might be from Obfuscated
Gradients [30.560531008995806]
我々は、ホワイトボックス攻撃下での非自明な対角的ロバスト性を実現するニューラルネットワーク正規微分方程式(ODE)の実証可能な安定なアーキテクチャを提案する。
動的システム理論に触発されて, ODEブロックが歪対称であり, 入力出力安定であることが証明されたSONetというニューラルネットワークを設計した。
自然訓練により、SONetは、自然な精度を犠牲にすることなく、最先端の対人防御手法と同等の堅牢性を達成することができる。
論文 参考訳(メタデータ) (2020-09-28T08:51:42Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z) - On the Effectiveness of Mitigating Data Poisoning Attacks with Gradient
Shaping [36.41173109033075]
機械学習アルゴリズムは、データ中毒攻撃に弱い。
本研究は,全ての中毒攻撃に共通するアーティファクトに依存する攻撃非依存防衛の実現可能性について検討する。
論文 参考訳(メタデータ) (2020-02-26T14:04:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。