論文の概要: Towards a Practical Defense against Adversarial Attacks on Deep
Learning-based Malware Detectors via Randomized Smoothing
- arxiv url: http://arxiv.org/abs/2308.08906v1
- Date: Thu, 17 Aug 2023 10:30:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 17:05:37.690669
- Title: Towards a Practical Defense against Adversarial Attacks on Deep
Learning-based Malware Detectors via Randomized Smoothing
- Title(参考訳): ランダム化平滑化による深層学習型マルウェア検出装置の敵攻撃対策
- Authors: Daniel Gibert, Giulio Zizzo, Quan Le
- Abstract要約: 本稿では,ランダムな平滑化に触発された敵のマルウェアに対する現実的な防御法を提案する。
本研究では,入力のランダム化にガウスノイズやラプラスノイズを使う代わりに,ランダム化アブレーションに基づく平滑化方式を提案する。
BODMASデータセットに対する様々な最先端の回避攻撃に対するアブレーションモデルの有効性を実証的に評価した。
- 参考スコア(独自算出の注目度): 3.736916304884177
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Malware detectors based on deep learning (DL) have been shown to be
susceptible to malware examples that have been deliberately manipulated in
order to evade detection, a.k.a. adversarial malware examples. More
specifically, it has been show that deep learning detectors are vulnerable to
small changes on the input file. Given this vulnerability of deep learning
detectors, we propose a practical defense against adversarial malware examples
inspired by randomized smoothing. In our work, instead of employing Gaussian or
Laplace noise when randomizing inputs, we propose a randomized ablation-based
smoothing scheme that ablates a percentage of the bytes within an executable.
During training, our randomized ablation-based smoothing scheme trains a base
classifier based on ablated versions of the executable files. At test time, the
final classification for a given input executable is taken as the class most
commonly predicted by the classifier on a set of ablated versions of the
original executable. To demonstrate the suitability of our approach we have
empirically evaluated the proposed ablation-based model against various
state-of-the-art evasion attacks on the BODMAS dataset. Results show greater
robustness and generalization capabilities to adversarial malware examples in
comparison to a non-smoothed classifier.
- Abstract(参考訳): ディープラーニング(DL)に基づくマルウェア検出装置は、検出を避けるために意図的に操作されたマルウェア例、すなわち敵のマルウェア例に感受性があることが示されている。
より具体的には、ディープラーニング検出器は入力ファイルの小さな変更に弱いことが示されている。
ディープラーニング検出装置の脆弱性を考えると,ランダムな平滑化に触発された敵のマルウェアに対する実用的な防御法を提案する。
本研究では,入力のランダム化においてガウスノイズやラプラスノイズを使わずに,実行ファイル内のバイトのパーセンテージを識別するランダム化アブレーションに基づく平滑化手法を提案する。
トレーニング中、ランダム化アブレーションに基づく平滑化スキームは、実行ファイルのアブレーションバージョンに基づいてベース分類器を訓練する。
テスト時には、与えられた入力実行ファイルの最終分類を、元の実行ファイルの短縮バージョンのセット上の分類器によって最も一般的に予測されるクラスとみなす。
本手法の適合性を実証するため,BODMASデータセットに対する様々な最先端の回避攻撃に対するアブレーションモデルの有効性を実証的に評価した。
その結果,非スムース型分類器と比較して,悪意のあるマルウェア例に対するロバスト性と一般化能力が向上した。
関連論文リスト
- A Robust Defense against Adversarial Attacks on Deep Learning-based
Malware Detectors via (De)Randomized Smoothing [4.97719149179179]
本稿では,(デ)ランダム化平滑化に触発された敵のマルウェアに対する現実的な防御法を提案する。
本研究では,マルウェア作者が挿入した敵対的コンテンツを,バイトの関連部分集合を選択することでサンプリングする可能性を減らす。
論文 参考訳(メタデータ) (2024-02-23T11:30:12Z) - A Comparison of Adversarial Learning Techniques for Malware Detection [1.2289361708127875]
我々は、勾配に基づく、進化的アルゴリズムに基づく、強化に基づく手法を用いて、敵対的なサンプルを生成する。
実験により,強化学習手法を用いたGymマルウェア生成装置が最も実用性が高いことが示された。
論文 参考訳(メタデータ) (2023-08-19T09:22:32Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - A two-steps approach to improve the performance of Android malware
detectors [4.440024971751226]
マルウェア検知器の性能を高めるための教師付き表現学習法であるGUIDED ReTRAINingを提案する。
265k以上のマルウェアと良性アプリを用いて,最先端の4つのAndroidマルウェア検出手法を検証した。
本手法は汎用的であり,二項分類タスクにおける分類性能を向上させるように設計されている。
論文 参考訳(メタデータ) (2022-05-17T12:04:17Z) - Improving Robustness of Malware Classifiers using Adversarial Strings
Generated from Perturbed Latent Representations [0.0]
マルウェアの作者は、マルウェアの新しいバージョンで乱数を生成したり、使用量を修正したりすることで、検出を避けようとしている。
提案手法は教師なし方式で入力文字列の潜在表現を学習する。
これらの例を用いて、生成された文字列の逆数集合をトレーニングすることで、分類器の堅牢性を改善する。
論文 参考訳(メタデータ) (2021-10-22T18:12:00Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Being Single Has Benefits. Instance Poisoning to Deceive Malware
Classifiers [47.828297621738265]
攻撃者は、マルウェア分類器を訓練するために使用されるデータセットをターゲットとした、高度で効率的な中毒攻撃を、どのように起動できるかを示す。
マルウェア検出領域における他の中毒攻撃とは対照的に、我々の攻撃はマルウェアファミリーではなく、移植されたトリガーを含む特定のマルウェアインスタンスに焦点を当てている。
我々は、この新たに発見された深刻な脅威に対する将来の高度な防御に役立つ包括的検出手法を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:27:44Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。