論文の概要: HASI: Hardware-Accelerated Stochastic Inference, A Defense Against
Adversarial Machine Learning Attacks
- arxiv url: http://arxiv.org/abs/2106.05825v1
- Date: Wed, 9 Jun 2021 14:31:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-13 04:45:28.209369
- Title: HASI: Hardware-Accelerated Stochastic Inference, A Defense Against
Adversarial Machine Learning Attacks
- Title(参考訳): HASI: ハードウェアによる確率推論 - 敵対的機械学習攻撃に対する防御
- Authors: Mohammad Hossein Samavatian, Saikat Majumdar, Kristin Barber, Radu
Teodorescu
- Abstract要約: 本稿では,逆入力の検出に推論と呼ぶ手法を用いたハードウェアアクセラレーション・ディフェンスHASIを提案する。
その結果, 平均87%の逆検出率が, 最先端手法の検出率を上回ることがわかった。
- 参考スコア(独自算出の注目度): 1.9212368803706579
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: DNNs are known to be vulnerable to so-called adversarial attacks, in which
inputs are carefully manipulated to induce misclassification. Existing defenses
are mostly software-based and come with high overheads or other limitations.
This paper presents HASI, a hardware-accelerated defense that uses a process we
call stochastic inference to detect adversarial inputs. HASI carefully injects
noise into the model at inference time and used the model's response to
differentiate adversarial inputs from benign ones. We show an adversarial
detection rate of average 87% which exceeds the detection rate of the
state-of-the-art approaches, with a much lower overhead. We demonstrate a
software/hardware-accelerated co-design, which reduces the performance impact
of stochastic inference to 1.58X-2X relative to the unprotected baseline,
compared to 14X-20X overhead for a software-only GPU implementation.
- Abstract(参考訳): DNNは、入力を慎重に操作して誤分類を引き起こすいわゆる敵攻撃に弱いことが知られている。
既存の防御は主にソフトウェアベースで、高いオーバーヘッドやその他の制限がある。
本稿では,確率推論と呼ばれる手法を用いて,対向入力を検出するハードウェアアクセラレーションディフェンスHASIを提案する。
hasiは推論時にモデルにノイズを注意深く注入し、モデルの応答を使用して、逆入力と良性入力を区別する。
その結果,平均87%の敵検出率が最先端の手法検出率を上回り,はるかに低いオーバーヘッドを示した。
ソフトウェアのみのGPU実装における14X-20Xオーバーヘッドと比較して,確率的推論のパフォーマンスへの影響を,保護されていないベースラインと比較して1.58X-2Xに低減するソフトウェア/ハードウェアアクセラレーションの共設計を実証する。
関連論文リスト
- Improving Adversarial Robustness in Android Malware Detection by Reducing the Impact of Spurious Correlations [3.7937308360299116]
機械学習(ML)は、Androidのマルウェア検出(AMD)において大きな進歩を見せている。
しかし、現実的な回避攻撃に対するMLのレジリエンスは、AMDにとって大きな障害である。
本研究では,マルウェアサンプルとAEの分布を調整することで,AMDの一般化性を向上させるための領域適応手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T17:01:12Z) - AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - PAD: Towards Principled Adversarial Malware Detection Against Evasion
Attacks [17.783849474913726]
本稿では,PAD(Principled Adversarial Malware Detection)と呼ばれる新しい対向学習フレームワークを提案する。
PADは、マルウェア検出装置を敵から守るために、分布的に離散的な摂動を定量化する学習可能な凸測定を基礎としている。
PADは、83.45%以上の精度で、27の回避攻撃に対するMLベースのマルウェア検出を強化できる。
VirusTotalの多くのアンチマルウェアスキャナーと、現実的な敵のマルウェアとを一致または性能で比較する。
論文 参考訳(メタデータ) (2023-02-22T12:24:49Z) - DODEM: DOuble DEfense Mechanism Against Adversarial Attacks Towards
Secure Industrial Internet of Things Analytics [8.697883716452385]
I-IoT環境における敵攻撃の検出と軽減のための二重防御機構を提案する。
まず、新規性検出アルゴリズムを用いて、サンプルに対して逆攻撃があるかどうかを検知する。
攻撃があった場合、敵の再訓練はより堅牢なモデルを提供する一方、通常のサンプルに対して標準的な訓練を適用する。
論文 参考訳(メタデータ) (2023-01-23T22:10:40Z) - DNNShield: Dynamic Randomized Model Sparsification, A Defense Against
Adversarial Machine Learning [2.485182034310304]
本稿では,ハードウェアによる機械学習攻撃に対する防御手法を提案する。
DNNSHIELDは、相手入力の信頼度に応じて応答の強さに適応する。
VGG16は86%,ResNet50は88%であった。
論文 参考訳(メタデータ) (2022-07-31T19:29:44Z) - Using Undervolting as an On-Device Defense Against Adversarial Machine
Learning Attacks [1.9212368803706579]
本稿では,画像分類器のための新しい,軽量な逆補正および/または検出機構を提案する。
これらの誤りは、分類を正したり、入力を逆数として検出するために使用できる方法で、逆数入力を妨害することを示す。
論文 参考訳(メタデータ) (2021-07-20T23:21:04Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。