論文の概要: Evading Deep Learning-Based Malware Detectors via Obfuscation: A Deep
Reinforcement Learning Approach
- arxiv url: http://arxiv.org/abs/2402.02600v1
- Date: Sun, 4 Feb 2024 20:23:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 18:34:53.492690
- Title: Evading Deep Learning-Based Malware Detectors via Obfuscation: A Deep
Reinforcement Learning Approach
- Title(参考訳): 難読化によるディープラーニングに基づくマルウェア検出:深層強化学習アプローチ
- Authors: Brian Etter, James Lee Hu, Mohammedreza Ebrahimi, Weifeng Li, Xin Li,
Hsinchun Chen
- Abstract要約: Adversarial Malware Generation (AMG) は、Deep Learning (DL) ベースのマルウェア検出装置を強化するための、敵マルウェアの派生版である。
本研究では、Reinforcement Learning (RL)フレームワークと組み合わされたオープンソースの暗号化ツールが、マルウェアの難読化に成功していることを示す。
提案手法は,最先端の強化学習法と比較して,回避率を27%~49%に向上することを示した。
- 参考スコア(独自算出の注目度): 8.702462580001727
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial Malware Generation (AMG), the generation of adversarial malware
variants to strengthen Deep Learning (DL)-based malware detectors has emerged
as a crucial tool in the development of proactive cyberdefense. However, the
majority of extant works offer subtle perturbations or additions to executable
files and do not explore full-file obfuscation. In this study, we show that an
open-source encryption tool coupled with a Reinforcement Learning (RL)
framework can successfully obfuscate malware to evade state-of-the-art malware
detection engines and outperform techniques that use advanced modification
methods. Our results show that the proposed method improves the evasion rate
from 27%-49% compared to widely-used state-of-the-art reinforcement
learning-based methods.
- Abstract(参考訳): 敵対的マルウェア生成 (AMG) は、ディープラーニング(DL)ベースのマルウェア検出装置を強化するために、攻撃的サイバー防御の開発において重要なツールとして登場した。
しかし、現存する作品の大部分は、実行ファイルへの微妙な摂動や追加を提供し、フルファイルの難読化を探求していない。
本研究では,強化学習(rl)フレームワークと組み合わされたオープンソース暗号化ツールによって,マルウェアを隠蔽して最先端のマルウェア検出エンジンを回避し,高度な修正手法を用いた手法を上回ることができることを示す。
提案手法は,最先端の強化学習法と比較して,回避率を27%~49%に向上することを示した。
関連論文リスト
- Understanding crypter-as-a-service in a popular underground marketplace [51.328567400947435]
Cryptersは、ターゲットバイナリを変換することで、アンチウイルス(AV)アプリケーションからの検出を回避できるソフトウェアの一部です。
シークレット・アズ・ア・サービスモデルは,検出機構の高度化に対応して人気を博している。
本論文は,シークレット・アズ・ア・サービスに特化したオンライン地下市場に関する最初の研究である。
論文 参考訳(メタデータ) (2024-05-20T08:35:39Z) - On the Effectiveness of Adversarial Samples against Ensemble
Learning-based Windows PE Malware Detectors [0.0]
本稿では,GANとRLモデルを組み合わせることで,アンサンブル学習に基づく検出器の動作に対処する突然変異システムを提案する。
FeaGANモデルでは、アンサンブル学習を用いて、生成された対向パターンを用いて、マルウェア検出器の回避能力を向上する。
論文 参考訳(メタデータ) (2023-09-25T02:57:27Z) - FGAM:Fast Adversarial Malware Generation Method Based on Gradient Sign [16.16005518623829]
敵対的攻撃は、敵対的サンプルを生成することによって、ディープラーニングモデルを欺くことである。
本稿では,FGAM(Fast Generate Adversarial Malware)を提案する。
FGAMが生成したマルウェア偽装モデルの成功率は,既存手法と比較して約84%増加することが実験的に検証された。
論文 参考訳(メタデータ) (2023-05-22T06:58:34Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Multi-view Representation Learning from Malware to Defend Against
Adversarial Variants [11.45498656419419]
本稿では,DLをベースとしたマルウェア検出装置の敵的変異に対する堅牢性を向上させるための,新たな多視点学習フレームワークであるAdversarially Robust Multiview Malware Defense (ARMD)を提案する。
6つの一般的なマルウェアカテゴリにわたる3つの有名なオープンソースのディープラーニングベースのマルウェア検出実験は、ARMDがこれらのマルウェア検出装置上で最大7倍の敵の堅牢性を向上できることを示している。
論文 参考訳(メタデータ) (2022-10-25T22:25:50Z) - Single-Shot Black-Box Adversarial Attacks Against Malware Detectors: A
Causal Language Model Approach [5.2424255020469595]
Adversarial Malware example Generationは、回避可能なマルウェアの変種を生成することを目的としている。
ブラックボックス法はホワイトボックス法よりも注目されている。
本研究では,新しいDLに基づく因果言語モデルにより,単発回避が可能となることを示す。
論文 参考訳(メタデータ) (2021-12-03T05:29:50Z) - Mate! Are You Really Aware? An Explainability-Guided Testing Framework
for Robustness of Malware Detectors [49.34155921877441]
マルウェア検出装置のロバスト性を示すための説明可能性誘導型およびモデルに依存しないテストフレームワークを提案する。
次に、このフレームワークを使用して、操作されたマルウェアを検出する最先端のマルウェア検知器の能力をテストする。
我々の発見は、現在のマルウェア検知器の限界と、その改善方法に光を当てた。
論文 参考訳(メタデータ) (2021-11-19T08:02:38Z) - Binary Black-box Evasion Attacks Against Deep Learning-based Static
Malware Detectors with Adversarial Byte-Level Language Model [11.701290164823142]
MalRNNは、制限なく回避可能なマルウェアバリアントを自動的に生成する新しいアプローチです。
MalRNNは、3つの最近のディープラーニングベースのマルウェア検出器を効果的に回避し、現在のベンチマークメソッドを上回ります。
論文 参考訳(メタデータ) (2020-12-14T22:54:53Z) - Being Single Has Benefits. Instance Poisoning to Deceive Malware
Classifiers [47.828297621738265]
攻撃者は、マルウェア分類器を訓練するために使用されるデータセットをターゲットとした、高度で効率的な中毒攻撃を、どのように起動できるかを示す。
マルウェア検出領域における他の中毒攻撃とは対照的に、我々の攻撃はマルウェアファミリーではなく、移植されたトリガーを含む特定のマルウェアインスタンスに焦点を当てている。
我々は、この新たに発見された深刻な脅威に対する将来の高度な防御に役立つ包括的検出手法を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:27:44Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z) - Robust Deep Reinforcement Learning through Adversarial Loss [74.20501663956604]
近年の研究では、深層強化学習剤は、エージェントの入力に対する小さな逆方向の摂動に弱いことが示されている。
敵攻撃に対する堅牢性を向上した強化学習エージェントを訓練するための原則的フレームワークであるRADIAL-RLを提案する。
論文 参考訳(メタデータ) (2020-08-05T07:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。