論文の概要: DNNShield: Dynamic Randomized Model Sparsification, A Defense Against
Adversarial Machine Learning
- arxiv url: http://arxiv.org/abs/2208.00498v1
- Date: Sun, 31 Jul 2022 19:29:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 14:58:06.069944
- Title: DNNShield: Dynamic Randomized Model Sparsification, A Defense Against
Adversarial Machine Learning
- Title(参考訳): DNNShield: 動的ランダム化モデルスパーシフィケーション, 対逆機械学習に対する防御
- Authors: Mohammad Hossein Samavatian, Saikat Majumdar, Kristin Barber, Radu
Teodorescu
- Abstract要約: 本稿では,ハードウェアによる機械学習攻撃に対する防御手法を提案する。
DNNSHIELDは、相手入力の信頼度に応じて応答の強さに適応する。
VGG16は86%,ResNet50は88%であった。
- 参考スコア(独自算出の注目度): 2.485182034310304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: DNNs are known to be vulnerable to so-called adversarial attacks that
manipulate inputs to cause incorrect results that can be beneficial to an
attacker or damaging to the victim. Recent works have proposed approximate
computation as a defense mechanism against machine learning attacks. We show
that these approaches, while successful for a range of inputs, are insufficient
to address stronger, high-confidence adversarial attacks. To address this, we
propose DNNSHIELD, a hardware-accelerated defense that adapts the strength of
the response to the confidence of the adversarial input. Our approach relies on
dynamic and random sparsification of the DNN model to achieve inference
approximation efficiently and with fine-grain control over the approximation
error. DNNSHIELD uses the output distribution characteristics of sparsified
inference compared to a dense reference to detect adversarial inputs. We show
an adversarial detection rate of 86% when applied to VGG16 and 88% when applied
to ResNet50, which exceeds the detection rate of the state of the art
approaches, with a much lower overhead. We demonstrate a
software/hardware-accelerated FPGA prototype, which reduces the performance
impact of DNNSHIELD relative to software-only CPU and GPU implementations.
- Abstract(参考訳): DNNは、入力を操作するいわゆる敵攻撃に弱いことで知られており、攻撃者にとって有益な不正な結果や、被害者に被害を与える可能性がある。
近年,機械学習攻撃に対する防御機構として近似計算が提案されている。
これらのアプローチは、様々な入力に対して成功したが、強い高信頼の敵攻撃に対処するには不十分であることを示す。
そこで本研究では,相手入力の信頼性に応答の強さを適応させるハードウェアアクセラレーション・ディフェンスであるDNNSHIELDを提案する。
提案手法は,DNNモデルの動的およびランダムなスペーサー化に頼り,近似誤差に対する近似近似と微粒化制御を効率的に行う。
DNNSHIELDは、高密度参照と比較してスパース化推論の出力分布特性を用いて、逆入力を検出する。
vgg16に適用すると86%、resnet50に適用すると88%の逆検出率を示し、より低いオーバーヘッドでアートアプローチの状態の検出率を超えた。
ソフトウェアのみのCPUおよびGPU実装と比較してDNNSHIELDの性能への影響を低減するソフトウェア/ハードウェアアクセラレーションFPGAプロトタイプを実演する。
関連論文リスト
- Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Using Undervolting as an On-Device Defense Against Adversarial Machine
Learning Attacks [1.9212368803706579]
本稿では,画像分類器のための新しい,軽量な逆補正および/または検出機構を提案する。
これらの誤りは、分類を正したり、入力を逆数として検出するために使用できる方法で、逆数入力を妨害することを示す。
論文 参考訳(メタデータ) (2021-07-20T23:21:04Z) - HASI: Hardware-Accelerated Stochastic Inference, A Defense Against
Adversarial Machine Learning Attacks [1.9212368803706579]
本稿では,逆入力の検出に推論と呼ぶ手法を用いたハードウェアアクセラレーション・ディフェンスHASIを提案する。
その結果, 平均87%の逆検出率が, 最先端手法の検出率を上回ることがわかった。
論文 参考訳(メタデータ) (2021-06-09T14:31:28Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Towards Adversarial-Resilient Deep Neural Networks for False Data
Injection Attack Detection in Power Grids [7.351477761427584]
偽データインジェクション攻撃(FDIA)は、電力システムの状態推定に重大なセキュリティ上の脅威をもたらす。
最近の研究では、機械学習(ML)技術、特にディープニューラルネットワーク(DNN)が提案されている。
論文 参考訳(メタデータ) (2021-02-17T22:26:34Z) - On the Intrinsic Robustness of NVM Crossbars Against Adversarial Attacks [6.592909460916497]
アナログコンピューティングの非理想的動作は、敵攻撃の有効性を低下させることを示す。
攻撃者がアナログハードウェアに気づいていない非適応攻撃では、アナログコンピューティングは固有の頑健さの程度が異なることを観察する。
論文 参考訳(メタデータ) (2020-08-27T09:36:50Z) - Robust Tracking against Adversarial Attacks [69.59717023941126]
まず,ビデオシーケンス上に敵の例を生成して,敵の攻撃に対するロバスト性を改善する。
提案手法を最先端のディープトラッキングアルゴリズムに適用する。
論文 参考訳(メタデータ) (2020-07-20T08:05:55Z) - Sparsity Turns Adversarial: Energy and Latency Attacks on Deep Neural
Networks [3.9193443389004887]
ディープニューラルネットワーク(DNN)のアドリアックが深刻な脆弱性を露呈
そこで本研究では,DNNの内部アクティベーション値のスパシティを低減するために,DNNの入力を逆向きに修正するスポーシティアタックを提案し,実証する。
我々は、敵対的スパシティ攻撃のホワイトボックス版とブラックボックス版の両方をローンチし、アクティベーション・スパシティーを最大1.82倍まで減少させることを示した。
論文 参考訳(メタデータ) (2020-06-14T21:02:55Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。