論文の概要: Stochastic-HMDs: Adversarial Resilient Hardware Malware Detectors
through Voltage Over-scaling
- arxiv url: http://arxiv.org/abs/2103.06936v1
- Date: Thu, 11 Mar 2021 20:18:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-15 13:12:20.729613
- Title: Stochastic-HMDs: Adversarial Resilient Hardware Malware Detectors
through Voltage Over-scaling
- Title(参考訳): stochastic-hmds: 電圧過スケーリングによる敵対的回復性ハードウェアマルウェア検出器
- Authors: Md Shohidul Islam, Ihsen Alouani, Khaled N. Khasawneh
- Abstract要約: 機械学習ベースのハードウェアマルウェアディテクタ(HMD)は、マルウェアからシステムを守るための潜在的なゲーム変更の優位性を提供します。
HMDは敵の攻撃に悩まされ、効果的にリバースエンジニアリングされ、その後回避され、マルウェアが検出から隠れることができる。
本稿では,HMDの対向回避攻撃に対する耐性を高めるため,近似計算による新しいHMD(Stochastic-HMD)を提案する。
- 参考スコア(独自算出の注目度): 3.5803801804085347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning-based hardware malware detectors (HMDs) offer a potential
game changing advantage in defending systems against malware. However, HMDs
suffer from adversarial attacks, can be effectively reverse-engineered and
subsequently be evaded, allowing malware to hide from detection. We address
this issue by proposing a novel HMDs (Stochastic-HMDs) through approximate
computing, which makes HMDs' inference computation-stochastic, thereby making
HMDs resilient against adversarial evasion attacks. Specifically, we propose to
leverage voltage overscaling to induce stochastic computation in the HMDs
model. We show that such a technique makes HMDs more resilient to both
black-box adversarial attack scenarios, i.e., reverse-engineering and
transferability. Our experimental results demonstrate that Stochastic-HMDs
offer effective defense against adversarial attacks along with by-product power
savings, without requiring any changes to the hardware/software nor to the
HMDs' model, i.e., no retraining or fine tuning is needed. Moreover, based on
recent results in probably approximately correct (PAC) learnability theory, we
show that Stochastic-HMDs are provably more difficult to reverse engineer.
- Abstract(参考訳): 機械学習ベースのハードウェアマルウェアディテクタ(HMD)は、マルウェアからシステムを守るための潜在的なゲーム変更の優位性を提供します。
しかし、HMDは敵の攻撃に悩まされ、効果的にリバースエンジニアリングされ、その後回避され、マルウェアが検出から隠れることができる。
本稿では, HMD を近似計算により提案することにより, HMD の計算確率を推定し, 敵の回避攻撃に対して耐性を持たせる。
具体的には,HMDモデルにおいて,電圧オーバースケーリングを利用して確率計算を誘導することを提案する。
このような手法により、HMDはブラックボックス攻撃シナリオ、すなわちリバースエンジニアリングとトランスファービリティの両方に対してより弾力性を持つことを示す。
実験の結果,Stochastic-HMDは,ハードウェアやソフトウェアの変更やHMDのモデルの変更を必要とせず,対向攻撃や副産物の省電力を効果的に防ぐことができることがわかった。
さらに,近年のPAC学習可能性理論の結果から,Stochastic-HMDのリバースエンジニアリングが困難であることが示唆された。
関連論文リスト
- MASKDROID: Robust Android Malware Detection with Masked Graph Representations [56.09270390096083]
マルウェアを識別する強力な識別能力を持つ強力な検出器MASKDROIDを提案する。
我々は、グラフニューラルネットワークベースのフレームワークにマスキング機構を導入し、MASKDROIDに入力グラフ全体の復元を強制する。
この戦略により、モデルは悪意のあるセマンティクスを理解し、より安定した表現を学習し、敵攻撃に対する堅牢性を高めることができる。
論文 参考訳(メタデータ) (2024-09-29T07:22:47Z) - HMD-Poser: On-Device Real-time Human Motion Tracking from Scalable
Sparse Observations [28.452132601844717]
HMDとIMUのスケーラブルなスパース観測により全身運動を復元する最初の統一的アプローチであるHMD-Poserを提案する。
HMD-Poserでは,そのモデルがリアルタイムにHMD上で動作することを保証するために,軽量な時空間特徴学習ネットワークを提案する。
AMASSデータセットの大規模な実験結果から、HMD-Poserは、精度とリアルタイムのパフォーマンスの両方において、新しい最先端の結果を達成することが示された。
論文 参考訳(メタデータ) (2024-03-06T09:10:36Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - RobustPdM: Designing Robust Predictive Maintenance against Adversarial
Attacks [0.0]
対人攻撃はRUL予測の深刻な欠陥(最大11倍)を引き起こす可能性を示し、3Xによる最先端のPdM攻撃の有効性を上回った。
また,敵攻撃を防御する新たな対人訓練法を提案する。
論文 参考訳(メタデータ) (2023-01-25T20:49:12Z) - RES-HD: Resilient Intelligent Fault Diagnosis Against Adversarial
Attacks Using Hyper-Dimensional Computing [8.697883716452385]
超次元コンピューティング(HDC)は、脳にインスパイアされた機械学習手法である。
本研究では,異なる対向攻撃に対する知的障害診断にHDCを用いる。
我々の実験は、HDCが最先端のディープラーニング手法よりも、より弾力的で軽量な学習ソリューションにつながることを示している。
論文 参考訳(メタデータ) (2022-03-14T17:59:17Z) - Mate! Are You Really Aware? An Explainability-Guided Testing Framework
for Robustness of Malware Detectors [49.34155921877441]
マルウェア検出装置のロバスト性を示すための説明可能性誘導型およびモデルに依存しないテストフレームワークを提案する。
次に、このフレームワークを使用して、操作されたマルウェアを検出する最先端のマルウェア検知器の能力をテストする。
我々の発見は、現在のマルウェア検知器の限界と、その改善方法に光を当てた。
論文 参考訳(メタデータ) (2021-11-19T08:02:38Z) - Towards Improving the Trustworthiness of Hardware based Malware Detector
using Online Uncertainty Estimation [8.199786326431944]
機械学習(ML)モデルを使用したハードウェアベースのマルウェア検出器(HMD)は、悪意のあるワークロードを検出する約束を示しています。
本論文では,HMDのMLモデルが未知の作業負荷に遭遇した場合の予測の不確実性を定量化するアンサンブルに基づくアプローチを提案する。
提案する不確実性推定器は電力管理型hmdにおいて未知のワークロードの90%以上を検出できることを示す。
論文 参考訳(メタデータ) (2021-03-21T23:55:35Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。