論文の概要: Improving Adversarial Robustness via Decoupled Visual Representation Masking
- arxiv url: http://arxiv.org/abs/2406.10933v1
- Date: Sun, 16 Jun 2024 13:29:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-18 20:02:29.306027
- Title: Improving Adversarial Robustness via Decoupled Visual Representation Masking
- Title(参考訳): Decoupled Visual Representation Maskingによる対向ロバスト性の改善
- Authors: Decheng Liu, Tao Chen, Chunlei Peng, Nannan Wang, Ruimin Hu, Xinbo Gao,
- Abstract要約: 本稿では,特徴分布の観点から,ロバストな特徴の2つの新しい特性を強調した。
現状の防衛手法は、上記の2つの問題にうまく対処することを目的としている。
具体的には、分離された視覚的表現マスキングに基づく、シンプルだが効果的な防御法を提案する。
- 参考スコア(独自算出の注目度): 65.73203518658224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks are proven to be vulnerable to fine-designed adversarial examples, and adversarial defense algorithms draw more and more attention nowadays. Pre-processing based defense is a major strategy, as well as learning robust feature representation has been proven an effective way to boost generalization. However, existing defense works lack considering different depth-level visual features in the training process. In this paper, we first highlight two novel properties of robust features from the feature distribution perspective: 1) \textbf{Diversity}. The robust feature of intra-class samples can maintain appropriate diversity; 2) \textbf{Discriminability}. The robust feature of inter-class samples should ensure adequate separation. We find that state-of-the-art defense methods aim to address both of these mentioned issues well. It motivates us to increase intra-class variance and decrease inter-class discrepancy simultaneously in adversarial training. Specifically, we propose a simple but effective defense based on decoupled visual representation masking. The designed Decoupled Visual Feature Masking (DFM) block can adaptively disentangle visual discriminative features and non-visual features with diverse mask strategies, while the suitable discarding information can disrupt adversarial noise to improve robustness. Our work provides a generic and easy-to-plugin block unit for any former adversarial training algorithm to achieve better protection integrally. Extensive experimental results prove the proposed method can achieve superior performance compared with state-of-the-art defense approaches. The code is publicly available at \href{https://github.com/chenboluo/Adversarial-defense}{https://github.com/chenboluo/Adversarial-defense}.
- Abstract(参考訳): ディープニューラルネットワークは、細かな設計された敵の例に弱いことが証明されており、敵防衛アルゴリズムが近年ますます注目を集めている。
事前処理に基づく防御は主要な戦略であり、ロバストな特徴表現の学習は一般化を促進する効果的な方法であることが証明されている。
しかし、既存の防御作業では、トレーニングプロセスで異なる深度レベルの視覚的特徴を考慮していない。
本稿では、特徴分布の観点から、ロバストな特徴の2つの新しい特性を最初に強調する。
1) \textbf{Diversity}。
クラス内サンプルのロバストな特徴は、適切な多様性を維持することができる。
2) \textbf{Discriminability}
クラス間サンプルの堅牢な機能は、適切な分離を保証する必要がある。
現状の防衛手法は、上記の2つの問題にうまく対処することを目的としている。
対人訓練において,クラス内差を増大させ,クラス間差を同時に減少させる動機付けとなる。
具体的には、分離された視覚的表現マスキングに基づく、シンプルだが効果的な防御法を提案する。
設計されたDecoupled Visual Feature Masking (DFM)ブロックは、視覚的識別的特徴と非視覚的特徴を多様なマスク戦略で適応的に切り離すことができる。
我々の研究は、より優れた保護を達成するために、かつての敵の訓練アルゴリズムに対して、汎用的で容易にプラグイン可能なブロックユニットを提供する。
大規模実験により,提案手法は最先端の防御手法と比較して優れた性能が得られることを示した。
コードは \href{https://github.com/chenboluo/Adversarial-defense}{https://github.com/chenboluo/Adversarial-defense} で公開されている。
関連論文リスト
- Enhancing Robust Representation in Adversarial Training: Alignment and
Exclusion Criteria [61.048842737581865]
対人訓練 (AT) は, 頑健な特徴の学習を省略し, 対人的頑健さの低下を招いた。
非対称な負のコントラストと逆の注意によって、頑健な表現を得るためのATの一般的なフレームワークを提案する。
3つのベンチマークデータセットの実証評価により,ATの堅牢性を大幅に向上し,最先端の性能を実現することができた。
論文 参考訳(メタデータ) (2023-10-05T07:29:29Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Robust Person Re-identification with Multi-Modal Joint Defence [1.441703014203756]
既存の仕事は、主にメートル法防衛のための敵の訓練に依存している。
本稿では,メカニカルアタックとディフェンスメソッドのターゲット手法を提案する。
メカニカルディフェンスでは,プロアクティブディフェンスとパッシブディフェンスの2つの部分を含む共同ディフェンス法を提案する。
論文 参考訳(メタデータ) (2021-11-18T08:13:49Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Class-Aware Domain Adaptation for Improving Adversarial Robustness [27.24720754239852]
学習データに敵の例を注入することにより,ネットワークを訓練するための敵の訓練が提案されている。
そこで本研究では,対人防御のための新しいクラスアウェアドメイン適応法を提案する。
論文 参考訳(メタデータ) (2020-05-10T03:45:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。