論文の概要: FG-UAP: Feature-Gathering Universal Adversarial Perturbation
- arxiv url: http://arxiv.org/abs/2209.13113v1
- Date: Tue, 27 Sep 2022 02:03:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 15:17:32.912039
- Title: FG-UAP: Feature-Gathering Universal Adversarial Perturbation
- Title(参考訳): FG-UAP:機能ギャザリングユニバーサル対向摂動
- Authors: Zhixing Ye, Xinwen Cheng, Xiaolin Huang
- Abstract要約: 本稿では,ニューラル・コラプス(NC)が発生する層を攻撃することにより,ユニバーサル・ディバイサル・摂動(UAP)を生成することを提案する。
NCにより、提案された攻撃は、すべての自然画像の特徴を周囲に集めることができ、それゆえ、FG-UAP(Feature-Gathering UAP)と呼ばれる。
提案アルゴリズムの有効性は,未目標および目標とする汎用攻撃,限られたデータセットによる攻撃,転送ベースのブラックボックス攻撃など,豊富な実験において評価される。
- 参考スコア(独自算出の注目度): 15.99512720802142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) are susceptible to elaborately designed
perturbations, whether such perturbations are dependent or independent of
images. The latter one, called Universal Adversarial Perturbation (UAP), is
very attractive for model robustness analysis, since its independence of input
reveals the intrinsic characteristics of the model. Relatively, another
interesting observation is Neural Collapse (NC), which means the feature
variability may collapse during the terminal phase of training. Motivated by
this, we propose to generate UAP by attacking the layer where NC phenomenon
happens. Because of NC, the proposed attack could gather all the natural
images' features to its surrounding, which is hence called Feature-Gathering
UAP (FG-UAP).
We evaluate the effectiveness our proposed algorithm on abundant experiments,
including untargeted and targeted universal attacks, attacks under limited
dataset, and transfer-based black-box attacks among different architectures
including Vision Transformers, which are believed to be more robust.
Furthermore, we investigate FG-UAP in the view of NC by analyzing the labels
and extracted features of adversarial examples, finding that collapse
phenomenon becomes stronger after the model is corrupted. The code will be
released when the paper is accepted.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、そのような摂動が画像に依存しているかどうかに関わらず、精巧に設計された摂動に影響を受けやすい。
後者はUniversal Adversarial Perturbation (UAP)と呼ばれ、入力の独立性はモデルの本質的な特性を明らかにするため、モデルロバスト性解析において非常に魅力的である。
比較的興味深い観察はニューラル・コラプス(NC)であり、これは訓練の終盤に特徴変数が崩壊することを意味する。
そこで我々は,NC現象が起こる層を攻撃してUAPを生成することを提案する。
NCにより、提案された攻撃は、すべての自然画像の特徴を周囲に集めることができ、それゆえ、FG-UAP(Feature-Gathering UAP)と呼ばれる。
提案アルゴリズムは,未目標かつ目標とする汎用攻撃,限られたデータセットによる攻撃,視覚変換器を含む異なるアーキテクチャ間の移動ベースのブラックボックス攻撃など,豊富な実験に対する有効性を評価する。
さらに,fg-uapをncの観点から検討し,ラベルと抽出した敵例の特徴を分析し,モデル崩壊後の崩壊現象がより強まることを見出した。
コードは、論文が受け入れられたときにリリースされる。
関連論文リスト
- SAM Meets UAP: Attacking Segment Anything Model With Universal Adversarial Perturbation [61.732503554088524]
画像認識不能なユニバーサル適応摂動(UAP)を用いてSAM(Segment Anything Model)を攻撃できるかどうかを検討する。
自己教師付きコントラスト学習(CL)に基づくUAP生成手法を実現する新しい摂動中心フレームワークを提案する。
CLを用いたUAP生成手法の有効性を定量的および定性的に検証した。
論文 参考訳(メタデータ) (2023-10-19T02:49:24Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Salient Feature Extractor for Adversarial Defense on Deep Neural
Networks [2.993911699314388]
モデルによって元のデータセットから学習された非可燃性特徴による逆転例の観察を動機として,salient feature (SF) と trivial feature (TF) の概念を提案する。
敵の攻撃から守るために, サルエント特徴抽出器 (SFE) という新しい検出・防御手法を考案した。
論文 参考訳(メタデータ) (2021-05-14T12:56:06Z) - Selective and Features based Adversarial Example Detection [12.443388374869745]
Deep Neural Networks (DNN) を中継するセキュリティに敏感なアプリケーションは、Adversarial Examples (AE) を生成するために作られた小さな摂動に弱い。
本稿では,マルチタスク学習環境における選択的予測,モデルレイヤの出力処理,知識伝達概念を用いた教師なし検出機構を提案する。
実験の結果,提案手法は,ホワイトボックスシナリオにおけるテスト攻撃に対する最先端手法と同等の結果を得られ,ブラックボックスとグレーボックスシナリオの精度が向上した。
論文 参考訳(メタデータ) (2021-03-09T11:06:15Z) - Universal Adversarial Perturbations Through the Lens of Deep
Steganography: Towards A Fourier Perspective [78.05383266222285]
人間の知覚不能な摂動は、ほとんどの画像のディープニューラルネットワーク(DNN)をだますために生成することができる。
ディープステガノグラフィタスクでは同様の現象が観測されており、デコーダネットワークはわずかに乱れたカバー画像から秘密の画像を取得することができる。
1)攻撃と隠蔽を同時に行うユニバーサル・シークレット・アドバイサル・パーターベーション(USAP)、(2)人間の目では見えないハイパスUAP(HP-UAP)の2つの新しい変種を提案する。
論文 参考訳(メタデータ) (2021-02-12T12:26:39Z) - Robustness and Transferability of Universal Attacks on Compressed Models [3.187381965457262]
エッジデバイスにDeep Neural Networks(DNN)を効率的にデプロイするには、プルーニングや量子化などのニューラルネットワーク圧縮方法が非常に効果的です。
特に、UAP(Universal Adversarial Perturbations)は、敵対的攻撃の強力なクラスである。
いくつかのシナリオでは、量子化は勾配マスキングを生じさせ、誤ったセキュリティ感覚を与える。
論文 参考訳(メタデータ) (2020-12-10T23:40:23Z) - Double Targeted Universal Adversarial Perturbations [83.60161052867534]
本稿では, インスタンス別画像依存摂動と汎用的普遍摂動のギャップを埋めるために, 二重目標普遍摂動(DT-UAP)を導入する。
提案したDTAアルゴリズムの幅広いデータセットに対する有効性を示すとともに,物理攻撃の可能性を示す。
論文 参考訳(メタデータ) (2020-10-07T09:08:51Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。