論文の概要: A Comparison of Adversarial Learning Techniques for Malware Detection
- arxiv url: http://arxiv.org/abs/2308.09958v1
- Date: Sat, 19 Aug 2023 09:22:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 18:50:32.862645
- Title: A Comparison of Adversarial Learning Techniques for Malware Detection
- Title(参考訳): マルウェア検出のための逆学習手法の比較
- Authors: Pavla Louth\'anov\'a, Matou\v{s} Koz\'ak, Martin Jure\v{c}ek, Mark
Stamp
- Abstract要約: 我々は、勾配に基づく、進化的アルゴリズムに基づく、強化に基づく手法を用いて、敵対的なサンプルを生成する。
実験により,強化学習手法を用いたGymマルウェア生成装置が最も実用性が高いことが示された。
- 参考スコア(独自算出の注目度): 1.2289361708127875
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning has proven to be a useful tool for automated malware
detection, but machine learning models have also been shown to be vulnerable to
adversarial attacks. This article addresses the problem of generating
adversarial malware samples, specifically malicious Windows Portable Executable
files. We summarize and compare work that has focused on adversarial machine
learning for malware detection. We use gradient-based, evolutionary
algorithm-based, and reinforcement-based methods to generate adversarial
samples, and then test the generated samples against selected antivirus
products. We compare the selected methods in terms of accuracy and practical
applicability. The results show that applying optimized modifications to
previously detected malware can lead to incorrect classification of the file as
benign. It is also known that generated malware samples can be successfully
used against detection models other than those used to generate them and that
using combinations of generators can create new samples that evade detection.
Experiments show that the Gym-malware generator, which uses a reinforcement
learning approach, has the greatest practical potential. This generator
achieved an average sample generation time of 5.73 seconds and the highest
average evasion rate of 44.11%. Using the Gym-malware generator in combination
with itself improved the evasion rate to 58.35%.
- Abstract(参考訳): 機械学習は自動マルウェア検出に有用なツールであることが証明されているが、機械学習モデルは敵の攻撃に対して脆弱であることも示されている。
本稿では、特に悪質なWindows Portable Executableファイルを含む、敵のマルウェアサンプルを生成する問題に対処する。
我々は、マルウェア検出のための敵機械学習に焦点を当てた作業の概要と比較を行った。
勾配型, 進化型, 強化型などの手法を用いて, 逆行性サンプルを生成し, 生成したサンプルを選択された抗ウイルス製品に対してテストする。
選択した手法を精度と実用性の観点から比較する。
その結果,以前検出されたマルウェアに最適化された修正を適用すると,ファイルの不正な分類につながる可能性が示唆された。
また、生成されたマルウェアのサンプルは、それらを生成するのに使用されるもの以外の検出モデルに対してうまく利用することができ、ジェネレータの組み合わせを使って検出を避ける新しいサンプルを生成することも知られている。
実験の結果,強化学習手法を用いた体育マッサージジェネレータが最も実用的可能性が示唆された。
この発電機は平均サンプル生成時間5.73秒、平均脱出速度44.11%に達した。
Gym-malwareジェネレータを使用することで、回避率は58.35%向上した。
関連論文リスト
- Small Effect Sizes in Malware Detection? Make Harder Train/Test Splits! [51.668411293817464]
業界関係者は、モデルが数億台のマシンにデプロイされているため、マルウェア検出精度の小さな改善に気を配っている。
学術研究はしばしば1万のサンプルの順序で公開データセットに制限される。
利用可能なサンプルのプールから難易度ベンチマークを生成するためのアプローチを考案する。
論文 参考訳(メタデータ) (2023-12-25T21:25:55Z) - Towards a Practical Defense against Adversarial Attacks on Deep
Learning-based Malware Detectors via Randomized Smoothing [3.736916304884177]
本稿では,ランダムな平滑化に触発された敵のマルウェアに対する現実的な防御法を提案する。
本研究では,入力のランダム化にガウスノイズやラプラスノイズを使う代わりに,ランダム化アブレーションに基づく平滑化方式を提案する。
BODMASデータセットに対する様々な最先端の回避攻撃に対するアブレーションモデルの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2023-08-17T10:30:25Z) - Creating Valid Adversarial Examples of Malware [4.817429789586127]
本稿では、強化学習アルゴリズムを用いて、敵のマルウェアの例を生成する。
PPOアルゴリズムを用いて,勾配型決定木(GBDT)モデルに対して53.84%の回避率を達成した。
機能保存型可搬性改造のランダムな適用は、主要なアンチウイルスエンジンを回避できる。
論文 参考訳(メタデータ) (2023-06-23T16:17:45Z) - FGAM:Fast Adversarial Malware Generation Method Based on Gradient Sign [16.16005518623829]
敵対的攻撃は、敵対的サンプルを生成することによって、ディープラーニングモデルを欺くことである。
本稿では,FGAM(Fast Generate Adversarial Malware)を提案する。
FGAMが生成したマルウェア偽装モデルの成功率は,既存手法と比較して約84%増加することが実験的に検証された。
論文 参考訳(メタデータ) (2023-05-22T06:58:34Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - A two-steps approach to improve the performance of Android malware
detectors [4.440024971751226]
マルウェア検知器の性能を高めるための教師付き表現学習法であるGUIDED ReTRAINingを提案する。
265k以上のマルウェアと良性アプリを用いて,最先端の4つのAndroidマルウェア検出手法を検証した。
本手法は汎用的であり,二項分類タスクにおける分類性能を向上させるように設計されている。
論文 参考訳(メタデータ) (2022-05-17T12:04:17Z) - Mate! Are You Really Aware? An Explainability-Guided Testing Framework
for Robustness of Malware Detectors [49.34155921877441]
マルウェア検出装置のロバスト性を示すための説明可能性誘導型およびモデルに依存しないテストフレームワークを提案する。
次に、このフレームワークを使用して、操作されたマルウェアを検出する最先端のマルウェア検知器の能力をテストする。
我々の発見は、現在のマルウェア検知器の限界と、その改善方法に光を当てた。
論文 参考訳(メタデータ) (2021-11-19T08:02:38Z) - Being Single Has Benefits. Instance Poisoning to Deceive Malware
Classifiers [47.828297621738265]
攻撃者は、マルウェア分類器を訓練するために使用されるデータセットをターゲットとした、高度で効率的な中毒攻撃を、どのように起動できるかを示す。
マルウェア検出領域における他の中毒攻撃とは対照的に、我々の攻撃はマルウェアファミリーではなく、移植されたトリガーを含む特定のマルウェアインスタンスに焦点を当てている。
我々は、この新たに発見された深刻な脅威に対する将来の高度な防御に役立つ包括的検出手法を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:27:44Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z) - MDEA: Malware Detection with Evolutionary Adversarial Learning [16.8615211682877]
MDEA(Adversarial Malware Detection)モデルであるMDEAは、進化的最適化を使用して攻撃サンプルを作成し、ネットワークを回避攻撃に対して堅牢にする。
進化したマルウェアサンプルでモデルを再トレーニングすることで、その性能は大幅に改善される。
論文 参考訳(メタデータ) (2020-02-09T09:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。