論文の概要: Block Switching: A Stochastic Approach for Deep Learning Security
- arxiv url: http://arxiv.org/abs/2002.07920v1
- Date: Tue, 18 Feb 2020 23:14:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 19:32:15.937876
- Title: Block Switching: A Stochastic Approach for Deep Learning Security
- Title(参考訳): ブロックスイッチ:ディープラーニングセキュリティのための確率的アプローチ
- Authors: Xiao Wang, Siyue Wang, Pin-Yu Chen, Xue Lin, and Peter Chin
- Abstract要約: 近年の敵対的攻撃の研究は、現代のディープラーニングモデルの脆弱性を明らかにしている。
本稿では、オン性に基づく敵攻撃に対する防御戦略であるBlock Switching(BS)を紹介する。
- 参考スコア(独自算出の注目度): 75.92824098268471
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent study of adversarial attacks has revealed the vulnerability of modern
deep learning models. That is, subtly crafted perturbations of the input can
make a trained network with high accuracy produce arbitrary incorrect
predictions, while maintain imperceptible to human vision system. In this
paper, we introduce Block Switching (BS), a defense strategy against
adversarial attacks based on stochasticity. BS replaces a block of model layers
with multiple parallel channels, and the active channel is randomly assigned in
the run time hence unpredictable to the adversary. We show empirically that BS
leads to a more dispersed input gradient distribution and superior defense
effectiveness compared with other stochastic defenses such as stochastic
activation pruning (SAP). Compared to other defenses, BS is also characterized
by the following features: (i) BS causes less test accuracy drop; (ii) BS is
attack-independent and (iii) BS is compatible with other defenses and can be
used jointly with others.
- Abstract(参考訳): 近年の敵対的攻撃の研究は、現代のディープラーニングモデルの脆弱性を明らかにしている。
すなわち、入力の微妙な摂動によって、訓練されたネットワークを高精度に構築し、任意の誤った予測を生成できるが、人間の視覚システムには受け入れられない。
本稿では,確率性に基づく敵の攻撃に対する防御戦略であるブロックスイッチング(bs)を提案する。
BSはモデルレイヤのブロックを複数の並列チャネルに置き換え、アクティブチャネルは実行時にランダムに割り当てられるので、敵に予測できない。
実験の結果,bsはより分散した入力勾配分布を示し,sap (stochastic activation pruning) のような他の確率的防御よりも優れた防御効果を示す。
他の防御と比べ、BSは以下の特徴が特徴である。
i)BSは検査精度の低下を減少させる。
(ii)BSは攻撃非依存で
(iii)bsは他の防御と互換性があり、他と共同で使用できる。
関連論文リスト
- Dynamic Stochastic Ensemble with Adversarial Robust Lottery Ticket
Subnetworks [4.665836414515929]
敵攻撃はCNNの脆弱性と見なされている。
ダイナミックディフェンスフレームワーク(DDF)は先日、アンサンブルモデルに基づいて、受動的安全性ステータスクオを変更した。
本研究では,ダイナミックアンサンブル防衛戦略を実現する方法を提案する。
論文 参考訳(メタデータ) (2022-10-06T00:33:19Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Adversarial Feature Desensitization [12.401175943131268]
本稿では,ドメイン適応分野からの洞察を基盤とした,対向ロバスト性に対する新しいアプローチを提案する。
提案手法は,入力の逆方向の摂動に対して不変な特徴を学習することを目的として,AFD(Adversarial Feature Desensitization)と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T14:20:02Z) - Stochastic Security: Adversarial Defense Using Long-Run Dynamics of
Energy-Based Models [82.03536496686763]
敵対的攻撃に対するディープ・ネットワークの脆弱性は、認識とセキュリティの両方の観点から、ディープ・ラーニングの中心的な問題である。
我々は,自然学習型分類器の保護に重点を置き,マルコフ・チェイン・モンテカルロ (MCMC) とエネルギーベースモデル (EBM) を併用して敵の浄化を行った。
本研究は,1)現実的な長期MCMCサンプルを用いたEMMの訓練方法の改善,2)防衛の理論的曖昧さを解消する期待・オフバー・トランスフォーメーション(EOT)ディフェンス,3)自然に訓練された分類器と競争的ディフェンスのための最先端の対人ディフェンス,である。
論文 参考訳(メタデータ) (2020-05-27T17:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。