論文の概要: Removing Adversarial Noise in Class Activation Feature Space
- arxiv url: http://arxiv.org/abs/2104.09197v1
- Date: Mon, 19 Apr 2021 10:42:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:41:53.592267
- Title: Removing Adversarial Noise in Class Activation Feature Space
- Title(参考訳): クラスアクティベーション特徴空間における敵対的ノイズの除去
- Authors: Dawei Zhou, Nannan Wang, Chunlei Peng, Xinbo Gao, Xiaoyu Wang, Jun Yu,
Tongliang Liu
- Abstract要約: クラスアクティベーション機能空間において,自己監視型対人訓練機構を実装することにより,対人雑音の除去を提案する。
クラスアクティベーション機能空間における敵対例と自然な例の間の距離を最小にするために、デノイジングモデルを訓練する。
経験的評価により, 従来の手法と比較して, 敵対的堅牢性が有意に向上できることが示された。
- 参考スコア(独自算出の注目度): 160.78488162713498
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are vulnerable to adversarial noise.
Preprocessing based defenses could largely remove adversarial noise by
processing inputs. However, they are typically affected by the error
amplification effect, especially in the front of continuously evolving attacks.
To solve this problem, in this paper, we propose to remove adversarial noise by
implementing a self-supervised adversarial training mechanism in a class
activation feature space. To be specific, we first maximize the disruptions to
class activation features of natural examples to craft adversarial examples.
Then, we train a denoising model to minimize the distances between the
adversarial examples and the natural examples in the class activation feature
space. Empirical evaluations demonstrate that our method could significantly
enhance adversarial robustness in comparison to previous state-of-the-art
approaches, especially against unseen adversarial attacks and adaptive attacks.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
前処理に基づく防御は、入力を処理することによって敵のノイズを大幅に除去できる。
しかし、それらは通常、エラー増幅効果、特に連続的な攻撃の前面で影響を受ける。
そこで本稿では,クラスアクティベーション特徴空間に自己教師付き対向学習機構を実装することにより,対向雑音を除去する手法を提案する。
具体的には,まず,自然例のクラスアクティベーション機能の破壊を最大化し,逆例を作成する。
そこで我々は,クラスアクティベーション特徴空間における逆例と自然例との距離を最小化するために,デノナイジングモデルを訓練する。
経験的評価により,本手法は,従来の最先端手法と比較して,特に注意深い敵の攻撃や適応攻撃に対して有意に頑健性が向上することが示された。
関連論文リスト
- F$^2$AT: Feature-Focusing Adversarial Training via Disentanglement of
Natural and Perturbed Patterns [74.03108122774098]
ディープニューラルネットワーク(DNN)は、よく設計された摂動によって構築された敵の例に対して脆弱である。
これは、自動運転車、監視セキュリティ、医療診断などの重要な応用について、悲惨な結果をもたらす可能性がある。
本稿では,自然パターンから中心となる特徴に焦点を合わせ,モデルに焦点をあてる機能集中型適応訓練(F$2$AT)を提案する。
論文 参考訳(メタデータ) (2023-10-23T04:31:42Z) - Enhancing Robust Representation in Adversarial Training: Alignment and
Exclusion Criteria [61.048842737581865]
対人訓練 (AT) は, 頑健な特徴の学習を省略し, 対人的頑健さの低下を招いた。
非対称な負のコントラストと逆の注意によって、頑健な表現を得るためのATの一般的なフレームワークを提案する。
3つのベンチマークデータセットの実証評価により,ATの堅牢性を大幅に向上し,最先端の性能を実現することができた。
論文 参考訳(メタデータ) (2023-10-05T07:29:29Z) - Robust Deep Learning Models Against Semantic-Preserving Adversarial
Attack [3.7264705684737893]
ディープラーニングモデルは、小さな$l_p$-normの逆の摂動と、属性の観点からの自然な摂動によって騙される。
本稿では,SPA攻撃という新たな攻撃機構を提案する。
論文 参考訳(メタデータ) (2023-04-08T08:28:36Z) - Friendly Noise against Adversarial Noise: A Powerful Defense against
Data Poisoning Attacks [15.761683760167777]
目に見えない)データ中毒攻撃の強力なカテゴリは、特定のテストタイムデータの予測を変更するために、小さな敵の摂動によってトレーニングサンプルのサブセットを変更する。
そこで本研究では, 従来の手法とは異なり, 一般化性能の低下により, 各種の目に見えない毒素攻撃を破る手法を提案する。
提案手法は, 性能を劣化させることなく, 最大摂動例に最適化された親和性雑音と, ランダムに変化する雑音成分の2成分からなる。
論文 参考訳(メタデータ) (2022-08-14T02:41:05Z) - Perturbation Inactivation Based Adversarial Defense for Face Recognition [45.73745401760292]
ディープラーニングベースの顔認識モデルは、敵攻撃に対して脆弱である。
直感的なアプローチは、敵の摂動を不活性化し、一般的な摂動として容易に扱えるようにすることである。
対向防御のための対向的摂動不活性化法として, プラグ・アンド・プレイ型対向防御法(PIN)を提案する。
論文 参考訳(メタデータ) (2022-07-13T08:33:15Z) - On Procedural Adversarial Noise Attack And Defense [2.5388455804357952]
逆の例では、ニューラルネットワークが入力画像に小さな修正を加えて予測エラーを発生させる。
本稿では,手続き型雑音関数に基づく2つのユニバーサル対向摂動(UAP)生成手法を提案する。
セマンティック表現を変更することなく、我々の手法によって生成された敵の例は攻撃に対して優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-10T02:47:01Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Improving Adversarial Robustness via Channel-wise Activation Suppressing [65.72430571867149]
深層ニューラルネットワーク(DNN)を用いたセキュアで堅牢な学習において,その逆例とその活性化に関する研究が注目されている。
本稿では,チャネルワイドアクティベーションの観点から,敵対的事例の新たな特徴を2つ挙げる。
我々は,CASが本質的に敵の活性化を抑制するモデルを訓練でき,既存の防御手法にも容易に適用でき,より堅牢性を向上させることができることを示す。
論文 参考訳(メタデータ) (2021-03-11T03:44:16Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。