論文の概要: SAIF: Sparse Adversarial and Imperceptible Attack Framework
- arxiv url: http://arxiv.org/abs/2212.07495v2
- Date: Wed, 6 Dec 2023 10:55:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 19:21:18.826326
- Title: SAIF: Sparse Adversarial and Imperceptible Attack Framework
- Title(参考訳): SAIF: Sparse Adversarial and Imperceptible Attack Framework
- Authors: Tooba Imtiaz, Morgan Kohler, Jared Miller, Zifeng Wang, Mario Sznaier,
Octavia Camps, Jennifer Dy
- Abstract要約: Sparse Adversarial and Interpretable Attack Framework (SAIF) と呼ばれる新しい攻撃手法を提案する。
具体的には、少数の画素で低次摂動を含む知覚不能な攻撃を設計し、これらのスパース攻撃を利用して分類器の脆弱性を明らかにする。
SAIFは、非常に受け入れ難い、解釈可能な敵の例を計算し、ImageNetデータセット上で最先端のスパース攻撃手法より優れている。
- 参考スコア(独自算出の注目度): 7.025774823899217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks hamper the decision-making ability of neural networks by
perturbing the input signal. The addition of calculated small distortion to
images, for instance, can deceive a well-trained image classification network.
In this work, we propose a novel attack technique called Sparse Adversarial and
Interpretable Attack Framework (SAIF). Specifically, we design imperceptible
attacks that contain low-magnitude perturbations at a small number of pixels
and leverage these sparse attacks to reveal the vulnerability of classifiers.
We use the Frank-Wolfe (conditional gradient) algorithm to simultaneously
optimize the attack perturbations for bounded magnitude and sparsity with
$O(1/\sqrt{T})$ convergence. Empirical results show that SAIF computes highly
imperceptible and interpretable adversarial examples, and outperforms
state-of-the-art sparse attack methods on the ImageNet dataset.
- Abstract(参考訳): 敵攻撃は入力信号の摂動によってニューラルネットワークの決定能力を妨げる。
例えば、画像に計算された小さな歪みを加えることは、よく訓練された画像分類ネットワークを欺くことができる。
本研究では,Sparse Adversarial and Interpretable Attack Framework (SAIF) と呼ばれる新たな攻撃手法を提案する。
具体的には、少数の画素で低マグニチュードの摂動を含む不可避な攻撃をデザインし、これらのスパース攻撃を利用して分類器の脆弱性を明らかにする。
我々はFrank-Wolfe(条件勾配)アルゴリズムを用いて、O(1/\sqrt{T})$収束で境界等級と空間の攻撃摂動を同時に最適化する。
実験の結果,SAIFは高い認識不能かつ解釈不能な逆数例を計算し,ImageNetデータセット上で最先端のスパース攻撃手法より優れていた。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - IRAD: Implicit Representation-driven Image Resampling against Adversarial Attacks [16.577595936609665]
本稿では,画像再サンプリングという,敵対的攻撃に対する新たなアプローチを提案する。
画像再サンプリングは、幾何学的変換によって指定されたシーンの再調整や再レンダリングの過程をシミュレートして、離散画像を新しい画像に変換する。
本手法は,クリーンな画像の精度を維持しつつ,多様な深層モデルの様々な攻撃に対する対角的堅牢性を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T11:19:32Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Transferable Sparse Adversarial Attack [62.134905824604104]
オーバーフィッティング問題を緩和するジェネレータアーキテクチャを導入し、転送可能なスパース対逆例を効率的に作成する。
提案手法は,他の最適化手法よりも700$times$高速な推論速度を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:44:58Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Blurring Fools the Network -- Adversarial Attacks by Feature Peak
Suppression and Gaussian Blurring [7.540176446791261]
本論文では,データの特徴におけるピーク要素の値を抑制することにより,ピーク抑制(PS)という逆攻撃デモを提案する。
実験結果は、PSとよく設計されたガウスボケは、よく訓練されたターゲットネットワークの分類結果を完全に変更する敵対攻撃を形成することができることを示しています。
論文 参考訳(メタデータ) (2020-12-21T15:47:14Z) - Learning to Attack with Fewer Pixels: A Probabilistic Post-hoc Framework
for Refining Arbitrary Dense Adversarial Attacks [21.349059923635515]
敵対的回避攻撃は ディープニューラルネットワーク画像分類器に 影響を受けやすいと報告されている
本稿では,乱れ画素数を著しく減少させることで,高密度攻撃を抑える確率的ポストホックフレームワークを提案する。
我々のフレームワークは、既存のスパース攻撃よりもはるかに高速に敵攻撃を行う。
論文 参考訳(メタデータ) (2020-10-13T02:51:10Z) - TensorShield: Tensor-based Defense Against Adversarial Attacks on Images [7.080154188969453]
近年の研究では、ディープニューラルネットワーク(DNN)のような機械学習アプローチが、敵の攻撃によって簡単に騙されることが示されている。
本稿では,テンソル分解法を前処理のステップとして利用して,高頻度摂動を著しく排除できる画像の低ランク近似を求める。
論文 参考訳(メタデータ) (2020-02-18T00:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。