論文の概要: Mitigating Gradient-based Adversarial Attacks via Denoising and
Compression
- arxiv url: http://arxiv.org/abs/2104.01494v1
- Date: Sat, 3 Apr 2021 22:57:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 14:49:16.895209
- Title: Mitigating Gradient-based Adversarial Attacks via Denoising and
Compression
- Title(参考訳): Denoising と Compression によるグラディエントベースの敵攻撃の軽減
- Authors: Rehana Mahfuz, Rajeev Sahay, Aly El Gamal
- Abstract要約: 深層ニューラルネットワークに対する勾配に基づく逆攻撃は深刻な脅威となる。
それらは、任意のネットワークのテストデータに不可避な摂動を追加することでデプロイできる。
デノイジングと寸法減少は、そのような攻撃に対抗するために調査された2つの異なる方法である。
- 参考スコア(独自算出の注目度): 7.305019142196582
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gradient-based adversarial attacks on deep neural networks pose a serious
threat, since they can be deployed by adding imperceptible perturbations to the
test data of any network, and the risk they introduce cannot be assessed
through the network's original training performance. Denoising and
dimensionality reduction are two distinct methods that have been independently
investigated to combat such attacks. While denoising offers the ability to
tailor the defense to the specific nature of the attack, dimensionality
reduction offers the advantage of potentially removing previously unseen
perturbations, along with reducing the training time of the network being
defended. We propose strategies to combine the advantages of these two defense
mechanisms. First, we propose the cascaded defense, which involves denoising
followed by dimensionality reduction. To reduce the training time of the
defense for a small trade-off in performance, we propose the hidden layer
defense, which involves feeding the output of the encoder of a denoising
autoencoder into the network. Further, we discuss how adaptive attacks against
these defenses could become significantly weak when an alternative defense is
used, or when no defense is used. In this light, we propose a new metric to
evaluate a defense which measures the sensitivity of the adaptive attack to
modifications in the defense. Finally, we present a guideline for building an
ordered repertoire of defenses, a.k.a. a defense infrastructure, that adjusts
to limited computational resources in presence of uncertainty about the attack
strategy.
- Abstract(参考訳): 深層ニューラルネットワークに対する勾配ベースの逆攻撃は、任意のネットワークのテストデータに知覚不能な摂動を追加してデプロイできるため、深刻な脅威となる。
デノイジング(denoising)と次元還元(dimensionality reduction)は、そのような攻撃と戦うために独立に研究された2つの方法である。
デノージングは防御を攻撃の特定の性質に合わせて調整する能力を提供するが、次元的縮小は、それまで認識されていなかった摂動を取り除き、防御されるネットワークのトレーニング時間を短縮するという利点をもたらす。
これら2つの防御機構の利点を組み合わせるための戦略を提案する。
まず, ディノワ化と次元減少を伴うカスケード防御を提案する。
性能の小さなトレードオフに対する防御の訓練時間を短縮するために,デノイジングオートエンコーダのエンコーダの出力をネットワークに供給する隠れ層防御を提案する。
さらに,これらの防御に対する適応攻撃が,代替防御が使用される場合や防御が使用されない場合において,著しく弱くなる可能性についても検討した。
そこで本研究では,防御の修正に対する適応攻撃の感度を測定する防衛評価のための新しい指標を提案する。
最後に、防衛の命令されたレパートリーを構築するためのガイドラインを提示する。
攻撃戦略の不確実性がある場合に限られた計算資源に適応する防衛インフラ。
関連論文リスト
- A Hybrid Training-time and Run-time Defense Against Adversarial Attacks in Modulation Classification [35.061430235135155]
機械学習に基づく無線信号(変調)分類を敵攻撃から保護するための訓練時間と実行時間の両方の防御技術に基づく防御機構。
ホワイトボックスのシナリオと実際のデータセットを考慮すると、提案手法が既存の最先端技術より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-09T12:28:38Z) - MPAT: Building Robust Deep Neural Networks against Textual Adversarial
Attacks [4.208423642716679]
本稿では,敵対的攻撃に対する堅牢な深層ニューラルネットワーク構築のための悪質な摂動に基づく敵対的訓練法を提案する。
具体的には、悪意のある摂動を伴う敵例を生成するために、多段階の悪意のあるサンプル生成戦略を構築する。
本研究では, 目標達成のために, 目標達成のための新たな訓練目標関数を, 本来のタスクの性能を損なうことなく採用する。
論文 参考訳(メタデータ) (2024-02-29T01:49:18Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Denoising Autoencoder-based Defensive Distillation as an Adversarial
Robustness Algorithm [0.0]
敵対的攻撃はディープニューラルネットワーク(DNN)の堅牢性を著しく脅かす
本研究は, 防衛蒸留機構をデノナイジングオートエンコーダ(DAE)と組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-28T11:34:54Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Practical Defences Against Model Inversion Attacks for Split Neural
Networks [5.66430335973956]
本稿では,ネットワーク分割型フェデレーション学習システムが悪意のある計算サーバによるモデルインバージョン攻撃に影響を受けやすい脅威モデルについて述べる。
モデルインバージョンを防御するための簡易な付加雑音法を提案し,mnistの許容精度トレードオフにおいて攻撃効果を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-04-12T18:12:17Z) - Sparse Coding Frontend for Robust Neural Networks [11.36192454455449]
ディープニューラルネットワークは、小さくて逆向きに作られた摂動に弱いことが知られている。
現在の対人攻撃に対する防御方法は、対人訓練の変種である。
本稿では,クリーン画像に基づくスパース符号化に基づく根本的に異なる防御手法を提案する。
論文 参考訳(メタデータ) (2021-04-12T11:14:32Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Robust Tracking against Adversarial Attacks [69.59717023941126]
まず,ビデオシーケンス上に敵の例を生成して,敵の攻撃に対するロバスト性を改善する。
提案手法を最先端のディープトラッキングアルゴリズムに適用する。
論文 参考訳(メタデータ) (2020-07-20T08:05:55Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。