論文の概要: Incorporating Hidden Layer representation into Adversarial Attacks and
Defences
- arxiv url: http://arxiv.org/abs/2011.14045v2
- Date: Thu, 23 Jun 2022 03:01:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 19:46:05.752175
- Title: Incorporating Hidden Layer representation into Adversarial Attacks and
Defences
- Title(参考訳): 敵の攻撃と防御に隠れたレイヤ表現を組み込む
- Authors: Haojing Shen, Sihong Chen, Ran Wang and Xizhao Wang
- Abstract要約: 隠蔽層表現を組み込むことで敵の強靭性を向上する防衛戦略を提案する。
この戦略は、任意の種類のニューラルネットワークに適用可能なアクティベーション関数と見なすことができる。
- 参考スコア(独自算出の注目度): 9.756797357009567
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a defence strategy to improve adversarial
robustness by incorporating hidden layer representation. The key of this
defence strategy aims to compress or filter input information including
adversarial perturbation. And this defence strategy can be regarded as an
activation function which can be applied to any kind of neural network. We also
prove theoretically the effectiveness of this defense strategy under certain
conditions. Besides, incorporating hidden layer representation we propose three
types of adversarial attacks to generate three types of adversarial examples,
respectively. The experiments show that our defence method can significantly
improve the adversarial robustness of deep neural networks which achieves the
state-of-the-art performance even though we do not adopt adversarial training.
- Abstract(参考訳): 本稿では,隠れレイヤ表現を取り入れることで,敵のロバスト性を改善する防衛戦略を提案する。
この防衛戦略の鍵は、逆摂動を含む入力情報を圧縮またはフィルタリングすることである。
そして、この防御戦略は、どんな種類のニューラルネットワークにも適用可能な活性化関数と見なすことができる。
また,ある条件下では,この防衛戦略の有効性を理論的に証明する。
さらに,隠蔽層表現を取り入れた3種類の逆攻撃を提案し,それぞれに3種類の逆攻撃例を生成する。
実験により,本手法は,敵の訓練を適用せずとも最先端のパフォーマンスを実現する深層ニューラルネットワークの強固性を大幅に向上できることを示した。
関連論文リスト
- Fast Preemption: Forward-Backward Cascade Learning for Efficient and Transferable Proactive Adversarial Defense [13.252842556505174]
ディープラーニング技術は、敵の攻撃に敏感なため、信頼できないものになっている。
我々は、メディアを前もって保護することによる先進的な戦略を考案した。
われわれは、ホワイトボックス適応的回帰攻撃(英語版)の知識を生かした最初の方法も考案した。
論文 参考訳(メタデータ) (2024-07-22T10:23:44Z) - Improving Adversarial Robustness via Decoupled Visual Representation Masking [65.73203518658224]
本稿では,特徴分布の観点から,ロバストな特徴の2つの新しい特性を強調した。
現状の防衛手法は、上記の2つの問題にうまく対処することを目的としている。
具体的には、分離された視覚的表現マスキングに基づく、シンプルだが効果的な防御法を提案する。
論文 参考訳(メタデータ) (2024-06-16T13:29:41Z) - MPAT: Building Robust Deep Neural Networks against Textual Adversarial
Attacks [4.208423642716679]
本稿では,敵対的攻撃に対する堅牢な深層ニューラルネットワーク構築のための悪質な摂動に基づく敵対的訓練法を提案する。
具体的には、悪意のある摂動を伴う敵例を生成するために、多段階の悪意のあるサンプル生成戦略を構築する。
本研究では, 目標達成のために, 目標達成のための新たな訓練目標関数を, 本来のタスクの性能を損なうことなく採用する。
論文 参考訳(メタデータ) (2024-02-29T01:49:18Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Exploring Adversarial Attacks and Defenses in Vision Transformers
trained with DINO [0.0]
本研究は、DINOを用いた自己監督型ビジョントランスフォーマーに対する敵攻撃に対する堅牢性の最初の分析を行う。
まず,自己超越によって学習される特徴が,教師付き学習から生まれる特徴よりも敵攻撃に対して堅牢であるか否かを評価する。
次に、潜伏空間における攻撃に起因した特性を示す。
論文 参考訳(メタデータ) (2022-06-14T11:20:16Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - Mitigating Gradient-based Adversarial Attacks via Denoising and
Compression [7.305019142196582]
深層ニューラルネットワークに対する勾配に基づく逆攻撃は深刻な脅威となる。
それらは、任意のネットワークのテストデータに不可避な摂動を追加することでデプロイできる。
デノイジングと寸法減少は、そのような攻撃に対抗するために調査された2つの異なる方法である。
論文 参考訳(メタデータ) (2021-04-03T22:57:01Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - AdvFoolGen: Creating Persistent Troubles for Deep Classifiers [17.709146615433458]
本稿では,自然画像と同じ特徴空間から攻撃画像を生成するAdvFoolGenというブラックボックス攻撃を提案する。
我々は、最先端の防衛技術に直面する攻撃の有効性と堅牢性を実証する。
論文 参考訳(メタデータ) (2020-07-20T21:27:41Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Deflecting Adversarial Attacks [94.85315681223702]
我々は、攻撃者が攻撃対象クラスに似た入力を生成することによって、敵攻撃を「防御」するこのサイクルを終わらせる新しいアプローチを提案する。
本稿ではまず,3つの検出機構を組み合わせたカプセルネットワークに基づくより強力な防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T06:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。