論文の概要: GSE: Group-wise Sparse and Explainable Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2311.17434v2
- Date: Tue, 15 Oct 2024 14:43:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 13:59:35.803443
- Title: GSE: Group-wise Sparse and Explainable Adversarial Attacks
- Title(参考訳): GSE:グループワイドスパースと説明可能な敵攻撃
- Authors: Shpresim Sadiku, Moritz Wagner, Sebastian Pokutta,
- Abstract要約: スパース敵は、最小ピクセルの摂動によって、愚かなディープニューラルネットワーク(DNN)を攻撃します。
近年の取り組みは、この標準を核グループノルムのようなスパーシティ正則化器に置き換えて、グループワイドの敵攻撃を作らせている。
本稿では,意味的意味のある画像内のグループワイドアタックを生成する2相アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 20.068273625719943
- License:
- Abstract: Sparse adversarial attacks fool deep neural networks (DNNs) through minimal pixel perturbations, often regularized by the $\ell_0$ norm. Recent efforts have replaced this norm with a structural sparsity regularizer, such as the nuclear group norm, to craft group-wise sparse adversarial attacks. The resulting perturbations are thus explainable and hold significant practical relevance, shedding light on an even greater vulnerability of DNNs. However, crafting such attacks poses an optimization challenge, as it involves computing norms for groups of pixels within a non-convex objective. We address this by presenting a two-phase algorithm that generates group-wise sparse attacks within semantically meaningful areas of an image. Initially, we optimize a quasinorm adversarial loss using the $1/2-$quasinorm proximal operator tailored for non-convex programming. Subsequently, the algorithm transitions to a projected Nesterov's accelerated gradient descent with $2-$norm regularization applied to perturbation magnitudes. Rigorous evaluations on CIFAR-10 and ImageNet datasets demonstrate a remarkable increase in group-wise sparsity, e.g., $50.9\%$ on CIFAR-10 and $38.4\%$ on ImageNet (average case, targeted attack). This performance improvement is accompanied by significantly faster computation times, improved explainability, and a $100\%$ attack success rate.
- Abstract(参考訳): スパース敵は、最小のピクセル摂動を通じて、しばしば$\ell_0$ノルムによって正規化される、愚かなディープニューラルネットワーク(DNN)を攻撃する。
近年の取り組みは、この標準を核グループノルムのような構造的疎度正規化器に置き換えて、集団的にスパースな敵攻撃を作らせている。
結果として生じる摂動は説明可能であり、DNNのより大きな脆弱性に光を当てる、重大な実践的関連性を持っている。
しかし、そのような攻撃を作れば、非凸目的の画素群に対するノルムの計算が伴うため、最適化の課題となる。
画像の意味的に意味のある領域内で集団的にスパース攻撃を発生させる2段階のアルゴリズムを提示することにより、この問題に対処する。
当初,非凸プログラミングに適した1/2-$quasinorm近位演算子を用いて,準項対向損失を最適化した。
その後、アルゴリズムは、摂動等級に2-$norm正規化を適用して、予測されたネステロフの加速勾配降下に遷移する。
CIFAR-10 と ImageNet データセットの厳密な評価は、CIFAR-10 では 50.9\% 、ImageNet では 38.4\% というグループ単位の間隔が著しく増加することを示している(平均的な場合、ターゲット攻撃)。
このパフォーマンス改善には、計算時間を大幅に高速化し、説明可能性を改善し、攻撃成功率を100\%に向上させる。
関連論文リスト
- $σ$-zero: Gradient-based Optimization of $\ell_0$-norm Adversarial Examples [14.17412770504598]
入力摂動の作成には$ell_infty$-normの制約が使用できることを示す。
我々は $sigma$-norm と呼ばれる新しい $ell_infty$-norm 攻撃を提案する。
これは、成功、サイズ、効率の点で競合するすべての敵攻撃を上回っます。
論文 参考訳(メタデータ) (2024-02-02T20:08:11Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - PDPGD: Primal-Dual Proximal Gradient Descent Adversarial Attack [92.94132883915876]
最先端のディープニューラルネットワークは、小さな入力摂動に敏感である。
対向騒音に対するロバスト性を改善するための多くの防御法が提案されている。
敵の強靭さを評価することは 極めて困難であることが分かりました
論文 参考訳(メタデータ) (2021-06-03T01:45:48Z) - Transferable Sparse Adversarial Attack [62.134905824604104]
オーバーフィッティング問題を緩和するジェネレータアーキテクチャを導入し、転送可能なスパース対逆例を効率的に作成する。
提案手法は,他の最適化手法よりも700$times$高速な推論速度を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:44:58Z) - Robustifying $\ell_\infty$ Adversarial Training to the Union of
Perturbation Models [120.71277007016708]
我々は、広く普及しているシングルアタック$ell_infty$ ATフレームワークの機能を拡張する。
我々の手法はSNAP(Noss Augmented Processing)と呼ばれ、単一攻撃ATフレームワークの優れた副産物を利用する。
SNAPは、標準的なシングルアタックATを用いて、ネットワークパラメータとともに分布を学習する形状のノイズ増強層を持つ、与えられたディープネットをプリペイドする。
論文 参考訳(メタデータ) (2021-05-31T05:18:42Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - Adversarial Robustness Across Representation Spaces [35.58913661509278]
逆サロバスト性は、テスト時の知覚できない摂動に対するディープニューラルネットワークの感受性に対応している。
本研究では、複数の自然表現空間に適用された摂動に同時に頑健にできるディープニューラルネットワークのトレーニング問題を考察するために、設定を拡張した。
論文 参考訳(メタデータ) (2020-12-01T19:55:58Z) - Stochastic sparse adversarial attacks [17.43654235818416]
本稿では,ニューラルネットワーク分類器(NNC)の単純かつ高速かつ純粋に雑音に基づく標的的かつ未標的的攻撃として,SSAA(sparse adversarial attacks)を提案する。
SSAAは、マルコフプロセスに広く用いられる小さな拡張アイデアを活用することで考案された。
小型および大規模データセット(CIFAR-10とImageNet)の実験では、最先端の手法と比較して、SSAAのいくつかの利点が示されている。
論文 参考訳(メタデータ) (2020-11-24T22:07:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。