論文の概要: Beneficial Perturbations Network for Defending Adversarial Examples
- arxiv url: http://arxiv.org/abs/2009.12724v3
- Date: Mon, 13 Sep 2021 13:05:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 03:27:48.882107
- Title: Beneficial Perturbations Network for Defending Adversarial Examples
- Title(参考訳): 実例を防御するための有効な摂動ネットワーク
- Authors: Shixian Wen, Amanda Rios, Laurent Itti
- Abstract要約: 対向的摂動は、最先端の機械学習モデルに誤分類を引き起こす可能性がある。
本稿では,分散ドリフトを固定することで敵攻撃を防御する新たな解決策として,BPN(Besticial Perturbation Network)を提案する。
BPNは、既に計算されたトレーニング勾配をリサイクルすることで、非常に少ないコストで、トレーニング中に逆敵攻撃を発生させる。
- 参考スコア(独自算出の注目度): 11.861965017611872
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks can be fooled by adversarial attacks: adding carefully
computed small adversarial perturbations to clean inputs can cause
misclassification on state-of-the-art machine learning models. The reason is
that neural networks fail to accommodate the distribution drift of the input
data caused by adversarial perturbations. Here, we present a new solution -
Beneficial Perturbation Network (BPN) - to defend against adversarial attacks
by fixing the distribution drift. During training, BPN generates and leverages
beneficial perturbations (somewhat opposite to well-known adversarial
perturbations) by adding new, out-of-network biasing units. Biasing units
influence the parameter space of the network, to preempt and neutralize future
adversarial perturbations on input data samples. To achieve this, BPN creates
reverse adversarial attacks during training, with very little cost, by
recycling the training gradients already computed. Reverse attacks are captured
by the biasing units, and the biases can in turn effectively defend against
future adversarial examples. Reverse attacks are a shortcut, i.e., they affect
the network's parameters without requiring instantiation of adversarial
examples that could assist training. We provide comprehensive empirical
evidence showing that 1) BPN is robust to adversarial examples and is much more
running memory and computationally efficient compared to classical adversarial
training. 2) BPN can defend against adversarial examples with negligible
additional computation and parameter costs compared to training only on clean
examples; 3) BPN hurts the accuracy on clean examples much less than classic
adversarial training; 4) BPN can improve the generalization of the network 5)
BPN trained only with Fast Gradient Sign Attack can generalize to defend PGD
attacks.
- Abstract(参考訳): 深いニューラルネットワークは、敵の攻撃によって騙されることがある: クリーンな入力に慎重に計算された小さな敵の摂動を追加することは、最先端の機械学習モデルに誤分類を引き起こす可能性がある。
その理由は、ニューラルネットワークが、逆摂動によって引き起こされる入力データの分布ドリフトを満足できないためである。
本稿では,分布のドリフトを固定することにより,敵の攻撃を防御する新しいソリューションBeneficial Perturbation Network(BPN)を提案する。
トレーニング中、BPNは新しいネットワーク外バイアスユニットを追加することで、有益な摂動(よく知られた対人摂動とは反対の)を生成し、活用する。
バイアスユニットはネットワークのパラメータ空間に影響を与え、入力データサンプルの将来の逆摂動をプリエンプットして中和する。
これを達成するため、bpnは、計算済みのトレーニング勾配を再利用することで、トレーニング中の逆敵攻撃を極めて少ないコストで生成する。
逆攻撃はバイアスユニットによって捕捉され、バイアスは将来の敵の例に対して効果的に防御することができる。
逆攻撃はショートカットであり、トレーニングを補助できる敵例のインスタンス化を必要とせず、ネットワークのパラメータに影響を及ぼす。
包括的な実証的な証拠を 提供しています
1)BPNは,古典的対向訓練と比較して,メモリの動作に優れ,計算効率も優れている。
2 BPNは、クリーンな例のみのトレーニングと比較して、追加計算及びパラメータコストを無視して敵の事例を防御することができる。
3)BPNは,古典的対人訓練よりはるかに少ないクリーンな事例の精度を損なう。
4)BPNはネットワークの一般化を改善することができる
5)高速グラディエントサインアタックのみで訓練されたBPNは、PGDアタックを防御するために一般化することができる。
関連論文リスト
- Fast Propagation is Better: Accelerating Single-Step Adversarial
Training via Sampling Subnetworks [69.54774045493227]
逆行訓練の欠点は、逆行例の生成によって引き起こされる計算オーバーヘッドである。
モデルの内部構造ブロックを利用して効率を向上させることを提案する。
従来の手法と比較して,本手法はトレーニングコストを削減できるだけでなく,モデルの堅牢性も向上する。
論文 参考訳(メタデータ) (2023-10-24T01:36:20Z) - Adversarial Pretraining of Self-Supervised Deep Networks: Past, Present
and Future [132.34745793391303]
本稿では,畳み込みニューラルネットワークと視覚変換器の両方を含む自己教師型深層ネットワークの対角的事前学習について検討する。
対戦相手を入力レベルと特徴レベルのいずれかの事前学習モデルに組み込むには、既存のアプローチは2つのグループに大別される。
論文 参考訳(メタデータ) (2022-10-23T13:14:06Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Collaborative Adversarial Training [82.25340762659991]
本研究は, 対人的, 良性的な両例とほぼ区別できない, 協調的な事例が, 対人的訓練の強化に有効であることを示す。
そこで,コラボレーティブ・ディベザリ・トレーニング(CoAT)と呼ばれる新しい手法が提案され,新たな最先端技術が実現された。
論文 参考訳(メタデータ) (2022-05-23T09:41:41Z) - Generating Adversarial Examples with Graph Neural Networks [26.74003742013481]
両手法の強みを生かしたグラフニューラルネットワーク(GNN)に基づく新たな攻撃を提案する。
PGDアタック,MI-FGSM,Carini,Wagnerアタックなど,最先端の敵攻撃に勝っていることを示す。
我々は、敵攻撃のより実証的な比較を可能にするために特別に設計された、新しい挑戦的なデータセットを提供する。
論文 参考訳(メタデータ) (2021-05-30T22:46:41Z) - Universal Adversarial Training with Class-Wise Perturbations [78.05383266222285]
敵の訓練は 敵の攻撃を防御するために 最も広く使われる方法です
この作業では、UAPがすべてのクラスを等しく攻撃しないことがわかります。
我々は,対人訓練におけるクラスワイドUAPの利用を提案することで,SOTA UATを改善した。
論文 参考訳(メタデータ) (2021-04-07T09:05:49Z) - Improving Transformation-based Defenses against Adversarial Examples
with First-order Perturbations [16.346349209014182]
研究によると、ニューラルネットワークは敵の攻撃を受けやすい。
これにより、ニューラルネットワークベースのインテリジェントシステムに対する潜在的な脅威が露呈する。
本稿では, 対向性強靭性を改善するために, 対向性摂動に対処する手法を提案する。
論文 参考訳(メタデータ) (2021-03-08T06:27:24Z) - Optimizing Information Loss Towards Robust Neural Networks [0.0]
ニューラルネットワーク(NN)は、敵の例に対して脆弱である。
テクステントロピックリトレーニングと呼ばれる新しいトレーニング手法を提案する。
情報理論にインスパイアされた分析に基づいて、エントロピー的リトレーニングは敵の訓練の効果を模倣する。
論文 参考訳(メタデータ) (2020-08-07T10:12:31Z) - Adversarial Feature Desensitization [12.401175943131268]
本稿では,ドメイン適応分野からの洞察を基盤とした,対向ロバスト性に対する新しいアプローチを提案する。
提案手法は,入力の逆方向の摂動に対して不変な特徴を学習することを目的として,AFD(Adversarial Feature Desensitization)と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T14:20:02Z) - Class-Aware Domain Adaptation for Improving Adversarial Robustness [27.24720754239852]
学習データに敵の例を注入することにより,ネットワークを訓練するための敵の訓練が提案されている。
そこで本研究では,対人防御のための新しいクラスアウェアドメイン適応法を提案する。
論文 参考訳(メタデータ) (2020-05-10T03:45:19Z) - Block Switching: A Stochastic Approach for Deep Learning Security [75.92824098268471]
近年の敵対的攻撃の研究は、現代のディープラーニングモデルの脆弱性を明らかにしている。
本稿では、オン性に基づく敵攻撃に対する防御戦略であるBlock Switching(BS)を紹介する。
論文 参考訳(メタデータ) (2020-02-18T23:14:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。