論文の概要: Improving Adversarial Robustness via Channel-wise Activation Suppressing
- arxiv url: http://arxiv.org/abs/2103.08307v1
- Date: Thu, 11 Mar 2021 03:44:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 14:01:52.567287
- Title: Improving Adversarial Robustness via Channel-wise Activation Suppressing
- Title(参考訳): チャネル型アクティベーション抑制による対向ロバスト性向上
- Authors: Yang Bai, Yuyuan Zeng, Yong Jiang, Shu-Tao Xia, Xingjun Ma, Yisen Wang
- Abstract要約: 深層ニューラルネットワーク(DNN)を用いたセキュアで堅牢な学習において,その逆例とその活性化に関する研究が注目されている。
本稿では,チャネルワイドアクティベーションの観点から,敵対的事例の新たな特徴を2つ挙げる。
我々は,CASが本質的に敵の活性化を抑制するモデルを訓練でき,既存の防御手法にも容易に適用でき,より堅牢性を向上させることができることを示す。
- 参考スコア(独自算出の注目度): 65.72430571867149
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The study of adversarial examples and their activation has attracted
significant attention for secure and robust learning with deep neural networks
(DNNs). Different from existing works, in this paper, we highlight two new
characteristics of adversarial examples from the channel-wise activation
perspective: 1) the activation magnitudes of adversarial examples are higher
than that of natural examples; and 2) the channels are activated more uniformly
by adversarial examples than natural examples. We find that the
state-of-the-art defense adversarial training has addressed the first issue of
high activation magnitudes via training on adversarial examples, while the
second issue of uniform activation remains. This motivates us to suppress
redundant activation from being activated by adversarial perturbations via a
Channel-wise Activation Suppressing (CAS) strategy. We show that CAS can train
a model that inherently suppresses adversarial activation, and can be easily
applied to existing defense methods to further improve their robustness. Our
work provides a simple but generic training strategy for robustifying the
intermediate layer activation of DNNs.
- Abstract(参考訳): 敵対的な例とその活性化の研究は、ディープニューラルネットワーク(DNN)によるセキュアで堅牢な学習のために大きな注目を集めています。
本論文では, 既存の作品と異なり, 対比例の新たな特徴を, 対向例の活性化度は, 対向例の活性化度は, 対向例の自然例よりも高く, 2) 対向例の活性化度は, 対向例の対向例より均一に, 強調する。
現状の防衛対人訓練は、対人訓練による高活性化度の最初の問題に対処しており、また、一様活性化の第2号も未解決のままである。
これにより、チャネルワイド・アクティベーション・サプレッション(CAS)戦略を介して、逆方向の摂動による冗長な活性化を抑えることができる。
我々は,CASが本質的に敵の活性化を抑制するモデルを訓練でき,既存の防御手法にも容易に適用でき,より堅牢性を向上させることができることを示す。
私たちの仕事は、DNNの中間層活性化を堅牢化するためのシンプルで汎用的なトレーニング戦略を提供します。
関連論文リスト
- Robust Active Learning (RoAL): Countering Dynamic Adversaries in Active Learning with Elastic Weight Consolidation [16.85038790429607]
本稿ではロバスト・アクティブ・ラーニング(RoAL)を紹介する。ロバスト・アクティブ・ラーニング(RoAL)は,ロバストなアクティブ・ラーニング・フレームワークを開発する上での課題に対処するための新しいアプローチである。
本稿では,アクティブな学習フレームワークに重大な脅威をもたらす動的敵攻撃を提案する。
次に、EWCとアクティブラーニングを組み合わせることで、動的逆境攻撃による破滅的な忘れを軽減できる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-14T08:22:13Z) - Pre-trained Trojan Attacks for Visual Recognition [106.13792185398863]
PVM(Pre-trained Vision Model)は、下流タスクを微調整する際、例外的なパフォーマンスのため、主要なコンポーネントとなっている。
本稿では,PVMにバックドアを埋め込んだトロイの木馬攻撃を提案する。
バックドア攻撃の成功において、クロスタスクアクティベーションとショートカット接続がもたらす課題を強調します。
論文 参考訳(メタデータ) (2023-12-23T05:51:40Z) - F$^2$AT: Feature-Focusing Adversarial Training via Disentanglement of
Natural and Perturbed Patterns [74.03108122774098]
ディープニューラルネットワーク(DNN)は、よく設計された摂動によって構築された敵の例に対して脆弱である。
これは、自動運転車、監視セキュリティ、医療診断などの重要な応用について、悲惨な結果をもたらす可能性がある。
本稿では,自然パターンから中心となる特徴に焦点を合わせ,モデルに焦点をあてる機能集中型適応訓練(F$2$AT)を提案する。
論文 参考訳(メタデータ) (2023-10-23T04:31:42Z) - Boosting Adversarial Transferability via Fusing Logits of Top-1
Decomposed Feature [36.78292952798531]
本稿では,Singular Value Decomposition(SVD)に基づく特徴レベル攻撃法を提案する。
提案手法は,中間層特徴量より大きい特異値に付随する固有ベクトルがより優れた一般化と注意特性を示すという発見に着想を得たものである。
論文 参考訳(メタデータ) (2023-05-02T12:27:44Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Removing Adversarial Noise in Class Activation Feature Space [160.78488162713498]
クラスアクティベーション機能空間において,自己監視型対人訓練機構を実装することにより,対人雑音の除去を提案する。
クラスアクティベーション機能空間における敵対例と自然な例の間の距離を最小にするために、デノイジングモデルを訓練する。
経験的評価により, 従来の手法と比較して, 敵対的堅牢性が有意に向上できることが示された。
論文 参考訳(メタデータ) (2021-04-19T10:42:24Z) - LiBRe: A Practical Bayesian Approach to Adversarial Detection [36.541671795530625]
LiBReは、様々な訓練済みのタスク依存DNNに、異種敵対攻撃を低コストで防御する能力を与えることができる。
我々は,多層深層アンサンブル変奏法を構築し,LiBReの有効性と効率を高めるために,事前学習と微調整のワークフローを採用する。
論文 参考訳(メタデータ) (2021-03-27T07:48:58Z) - Low Curvature Activations Reduce Overfitting in Adversarial Training [38.53171807664161]
敵の訓練は敵の攻撃に対する最も効果的な防御の1つです。
観測された一般化ギャップは活性化関数の選択と密接に関連していることを示す。
論文 参考訳(メタデータ) (2021-02-15T21:53:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。