論文の概要: Group-wise Sparse and Explainable Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2311.17434v1
- Date: Wed, 29 Nov 2023 08:26:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 22:20:13.401967
- Title: Group-wise Sparse and Explainable Adversarial Attacks
- Title(参考訳): グループワイドスパースと説明可能な敵攻撃
- Authors: Shpresim Sadiku, Moritz Wagner, Sebastian Pokutta
- Abstract要約: スパース敵は、最小ピクセルの摂動によって、愚かなディープニューラルネットワーク(DNN)を攻撃します。
近年の取り組みは、この標準を核対逆法則としてスパーシティ正則化器に置き換えている。
画像のスパース的に意味のある領域内でグループワイズ攻撃を同時に生成するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 22.554728415868574
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Sparse adversarial attacks fool deep neural networks (DNNs) through minimal
pixel perturbations, typically regularized by the $\ell_0$ norm. Recent efforts
have replaced this norm with a structural sparsity regularizer, such as the
nuclear group norm, to craft group-wise sparse adversarial attacks. The
resulting perturbations are thus explainable and hold significant practical
relevance, shedding light on an even greater vulnerability of DNNs than
previously anticipated. However, crafting such attacks poses an optimization
challenge, as it involves computing norms for groups of pixels within a
non-convex objective. In this paper, we tackle this challenge by presenting an
algorithm that simultaneously generates group-wise sparse attacks within
semantically meaningful areas of an image. In each iteration, the core
operation of our algorithm involves the optimization of a quasinorm adversarial
loss. This optimization is achieved by employing the $1/2$-quasinorm proximal
operator for some iterations, a method tailored for nonconvex programming.
Subsequently, the algorithm transitions to a projected Nesterov's accelerated
gradient descent with $2$-norm regularization applied to perturbation
magnitudes. We rigorously evaluate the efficacy of our novel attack in both
targeted and non-targeted attack scenarios, on CIFAR-10 and ImageNet datasets.
When compared to state-of-the-art methods, our attack consistently results in a
remarkable increase in group-wise sparsity, e.g., an increase of $48.12\%$ on
CIFAR-10 and $40.78\%$ on ImageNet (average case, targeted attack), all while
maintaining lower perturbation magnitudes. Notably, this performance is
complemented by a significantly faster computation time and a $100\%$ attack
success rate.
- Abstract(参考訳): sparse adversarial attacks fool deep neural networks (dnns) は、最小のピクセル摂動(英語版)を通じて、通常$\ell_0$のノルムで正規化される。
近年の取り組みは、この標準を核グループノルムのような構造的疎結合正則化器に置き換え、グループワイズ対逆攻撃を作らせている。
結果として生じる摂動は説明可能であり、非常に実用的な関係を持ち、これまで予想されていたよりもさらに大きなDNNの脆弱性に光を当てる。
しかし、そのような攻撃を作ることは、非凸目的におけるピクセル群の標準を計算することを伴うため、最適化の課題となる。
本稿では,画像の意味的に意味のある領域においてグループ的スパース攻撃を同時に生成するアルゴリズムを提案する。
各イテレーションにおいて、我々のアルゴリズムのコア操作は、準次対向損失の最適化を伴う。
この最適化は、いくつかのイテレーションに1/2$-quasinorm proximal operator(非凸プログラミングに適したメソッド)を用いることで達成される。
その後、アルゴリズムは予測されたネステロフの加速勾配降下に遷移し、摂動等級に2$ノルム正規化が適用される。
CIFAR-10 と ImageNet のデータセットを用いて,ターゲットと非ターゲットの両方の攻撃シナリオにおける新たな攻撃の有効性を厳格に評価した。
最先端の手法と比較すると、この攻撃は、cifar-10では48.12\%、imagenetでは40.78\%(平均的な場合、標的攻撃)という、グループごとのスパース性が一貫して著しく増加する。
特に、この性能は大幅に高速な計算時間と100\%の攻撃成功率で補完されている。
関連論文リスト
- $σ$-zero: Gradient-based Optimization of $\ell_0$-norm Adversarial Examples [14.17412770504598]
入力摂動の作成には$ell_infty$-normの制約が使用できることを示す。
我々は $sigma$-norm と呼ばれる新しい $ell_infty$-norm 攻撃を提案する。
これは、成功、サイズ、効率の点で競合するすべての敵攻撃を上回っます。
論文 参考訳(メタデータ) (2024-02-02T20:08:11Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - PDPGD: Primal-Dual Proximal Gradient Descent Adversarial Attack [92.94132883915876]
最先端のディープニューラルネットワークは、小さな入力摂動に敏感である。
対向騒音に対するロバスト性を改善するための多くの防御法が提案されている。
敵の強靭さを評価することは 極めて困難であることが分かりました
論文 参考訳(メタデータ) (2021-06-03T01:45:48Z) - Transferable Sparse Adversarial Attack [62.134905824604104]
オーバーフィッティング問題を緩和するジェネレータアーキテクチャを導入し、転送可能なスパース対逆例を効率的に作成する。
提案手法は,他の最適化手法よりも700$times$高速な推論速度を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:44:58Z) - Robustifying $\ell_\infty$ Adversarial Training to the Union of
Perturbation Models [120.71277007016708]
我々は、広く普及しているシングルアタック$ell_infty$ ATフレームワークの機能を拡張する。
我々の手法はSNAP(Noss Augmented Processing)と呼ばれ、単一攻撃ATフレームワークの優れた副産物を利用する。
SNAPは、標準的なシングルアタックATを用いて、ネットワークパラメータとともに分布を学習する形状のノイズ増強層を持つ、与えられたディープネットをプリペイドする。
論文 参考訳(メタデータ) (2021-05-31T05:18:42Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - Adversarial Robustness Across Representation Spaces [35.58913661509278]
逆サロバスト性は、テスト時の知覚できない摂動に対するディープニューラルネットワークの感受性に対応している。
本研究では、複数の自然表現空間に適用された摂動に同時に頑健にできるディープニューラルネットワークのトレーニング問題を考察するために、設定を拡張した。
論文 参考訳(メタデータ) (2020-12-01T19:55:58Z) - Stochastic sparse adversarial attacks [17.43654235818416]
本稿では,ニューラルネットワーク分類器(NNC)の単純かつ高速かつ純粋に雑音に基づく標的的かつ未標的的攻撃として,SSAA(sparse adversarial attacks)を提案する。
SSAAは、マルコフプロセスに広く用いられる小さな拡張アイデアを活用することで考案された。
小型および大規模データセット(CIFAR-10とImageNet)の実験では、最先端の手法と比較して、SSAAのいくつかの利点が示されている。
論文 参考訳(メタデータ) (2020-11-24T22:07:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。