論文の概要: The Power of MEME: Adversarial Malware Creation with Model-Based
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2308.16562v1
- Date: Thu, 31 Aug 2023 08:55:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 15:16:20.514439
- Title: The Power of MEME: Adversarial Malware Creation with Model-Based
Reinforcement Learning
- Title(参考訳): the power of meme: モデルベース強化学習による敵対的マルウェア生成
- Authors: Maria Rigaki, Sebastian Garcia
- Abstract要約: この研究は、マルウェアの侵入とモデル抽出攻撃を組み合わせた新しいアルゴリズムを提案する。
MEMEは、モデルベースの強化学習を使用して、Windowsの実行可能バイナリサンプルを反対に修正する。
回避率は32-73%である。
- 参考スコア(独自算出の注目度): 0.7614628596146599
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Due to the proliferation of malware, defenders are increasingly turning to
automation and machine learning as part of the malware detection tool-chain.
However, machine learning models are susceptible to adversarial attacks,
requiring the testing of model and product robustness. Meanwhile, attackers
also seek to automate malware generation and evasion of antivirus systems, and
defenders try to gain insight into their methods. This work proposes a new
algorithm that combines Malware Evasion and Model Extraction (MEME) attacks.
MEME uses model-based reinforcement learning to adversarially modify Windows
executable binary samples while simultaneously training a surrogate model with
a high agreement with the target model to evade. To evaluate this method, we
compare it with two state-of-the-art attacks in adversarial malware creation,
using three well-known published models and one antivirus product as targets.
Results show that MEME outperforms the state-of-the-art methods in terms of
evasion capabilities in almost all cases, producing evasive malware with an
evasion rate in the range of 32-73%. It also produces surrogate models with a
prediction label agreement with the respective target models between 97-99%.
The surrogate could be used to fine-tune and improve the evasion rate in the
future.
- Abstract(参考訳): マルウェアの拡散により、ディフェンダーはマルウェア検出ツールチェーンの一部として、自動化と機械学習へと向かっている。
しかし、機械学習モデルは敵対的な攻撃を受けやすく、モデルと製品の堅牢性をテストする必要がある。
一方、攻撃者はマルウェアの発生やウイルス対策の回避も自動化しようとしており、被告は彼らの方法に関する洞察を得ようとしている。
本研究は,Malware Evasion と Model extract (MEME) を併用した新しいアルゴリズムを提案する。
MEMEは、モデルベースの強化学習を使用して、Windowsの実行可能なバイナリサンプルを逆向きに修正し、同時にターゲットモデルと高い合意で代理モデルをトレーニングして回避する。
本手法を評価するために,3つの有名な公開モデルと1つのアンチウイルス製品を標的として,敵対的マルウェア生成における2つの最先端攻撃と比較した。
その結果、MEMEは、ほとんど全てのケースにおいて回避能力において最先端の手法よりも優れており、32~73%の範囲で回避率の高い回避マルウェアを生み出していることがわかった。
また、97~99%のターゲットモデルと予測ラベルが一致した代理モデルを生成する。
サーロゲートは、将来の蒸発速度を微調整し、改善するために使用できる。
関連論文リスト
- Small Effect Sizes in Malware Detection? Make Harder Train/Test Splits! [51.668411293817464]
業界関係者は、モデルが数億台のマシンにデプロイされているため、マルウェア検出精度の小さな改善に気を配っている。
学術研究はしばしば1万のサンプルの順序で公開データセットに制限される。
利用可能なサンプルのプールから難易度ベンチマークを生成するためのアプローチを考案する。
論文 参考訳(メタデータ) (2023-12-25T21:25:55Z) - Defense Against Model Extraction Attacks on Recommender Systems [53.127820987326295]
本稿では、モデル抽出攻撃に対するリコメンデータシステムに対する防御のために、グラディエントベースのランキング最適化(GRO)を導入する。
GROは、攻撃者の代理モデルの損失を最大化しながら、保護対象モデルの損失を最小限にすることを目的としている。
その結果,モデル抽出攻撃に対するGROの防御効果は良好であった。
論文 参考訳(メタデータ) (2023-10-25T03:30:42Z) - On the Effectiveness of Adversarial Samples against Ensemble
Learning-based Windows PE Malware Detectors [0.0]
本稿では,GANとRLモデルを組み合わせることで,アンサンブル学習に基づく検出器の動作に対処する突然変異システムを提案する。
FeaGANモデルでは、アンサンブル学習を用いて、生成された対向パターンを用いて、マルウェア検出器の回避能力を向上する。
論文 参考訳(メタデータ) (2023-09-25T02:57:27Z) - Creating Valid Adversarial Examples of Malware [4.817429789586127]
本稿では、強化学習アルゴリズムを用いて、敵のマルウェアの例を生成する。
PPOアルゴリズムを用いて,勾配型決定木(GBDT)モデルに対して53.84%の回避率を達成した。
機能保存型可搬性改造のランダムな適用は、主要なアンチウイルスエンジンを回避できる。
論文 参考訳(メタデータ) (2023-06-23T16:17:45Z) - FGAM:Fast Adversarial Malware Generation Method Based on Gradient Sign [16.16005518623829]
敵対的攻撃は、敵対的サンプルを生成することによって、ディープラーニングモデルを欺くことである。
本稿では,FGAM(Fast Generate Adversarial Malware)を提案する。
FGAMが生成したマルウェア偽装モデルの成功率は,既存手法と比較して約84%増加することが実験的に検証された。
論文 参考訳(メタデータ) (2023-05-22T06:58:34Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Stealing and Evading Malware Classifiers and Antivirus at Low False
Positive Conditions [2.1320960069210475]
この研究は、代理モデル(dualFFNN)のための新しいニューラルネットワークアーキテクチャと、代理生成のための転送とアクティブラーニングを組み合わせた新しいモデルステルス攻撃を提案する。
この研究は、最高のサロゲートを使用して、(インターネット接続なしで)スタンドアロンとAVの両方のターゲットモデルを避けるために、敵のマルウェアを生成する。
その結果、サロゲートモデルでは、ターゲットを回避できるが、ターゲットモデルを直接使用して敵マルウェアを生成するよりも成功率の低い敵マルウェアを生成できることがわかった。
論文 参考訳(メタデータ) (2022-04-13T08:20:41Z) - Training Meta-Surrogate Model for Transferable Adversarial Attack [98.13178217557193]
クエリーを許可しない場合、ブラックボックスモデルに対する逆攻撃を考える。
この設定では、多くの手法が代理モデルを直接攻撃し、得られた敵の例をターゲットモデルを騙すために転送する。
メタサロゲートモデル(Meta-Surrogate Model:MSM)は,このモデルに対する攻撃が,他のモデルに容易に転送できることを示す。
論文 参考訳(メタデータ) (2021-09-05T03:27:46Z) - Being Single Has Benefits. Instance Poisoning to Deceive Malware
Classifiers [47.828297621738265]
攻撃者は、マルウェア分類器を訓練するために使用されるデータセットをターゲットとした、高度で効率的な中毒攻撃を、どのように起動できるかを示す。
マルウェア検出領域における他の中毒攻撃とは対照的に、我々の攻撃はマルウェアファミリーではなく、移植されたトリガーを含む特定のマルウェアインスタンスに焦点を当てている。
我々は、この新たに発見された深刻な脅威に対する将来の高度な防御に役立つ包括的検出手法を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:27:44Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z) - MDEA: Malware Detection with Evolutionary Adversarial Learning [16.8615211682877]
MDEA(Adversarial Malware Detection)モデルであるMDEAは、進化的最適化を使用して攻撃サンプルを作成し、ネットワークを回避攻撃に対して堅牢にする。
進化したマルウェアサンプルでモデルを再トレーニングすることで、その性能は大幅に改善される。
論文 参考訳(メタデータ) (2020-02-09T09:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。