論文の概要: Multi-view Representation Learning from Malware to Defend Against
Adversarial Variants
- arxiv url: http://arxiv.org/abs/2210.15429v1
- Date: Tue, 25 Oct 2022 22:25:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 13:28:04.559005
- Title: Multi-view Representation Learning from Malware to Defend Against
Adversarial Variants
- Title(参考訳): マルウェアからの多視点表現学習 : 対立変数に対する防御
- Authors: James Lee Hu, Mohammadreza Ebrahimi, Weifeng Li, Xin Li, Hsinchun Chen
- Abstract要約: 本稿では,DLをベースとしたマルウェア検出装置の敵的変異に対する堅牢性を向上させるための,新たな多視点学習フレームワークであるAdversarially Robust Multiview Malware Defense (ARMD)を提案する。
6つの一般的なマルウェアカテゴリにわたる3つの有名なオープンソースのディープラーニングベースのマルウェア検出実験は、ARMDがこれらのマルウェア検出装置上で最大7倍の敵の堅牢性を向上できることを示している。
- 参考スコア(独自算出の注目度): 11.45498656419419
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning-based adversarial malware detectors have yielded promising
results in detecting never-before-seen malware executables without relying on
expensive dynamic behavior analysis and sandbox. Despite their abilities, these
detectors have been shown to be vulnerable to adversarial malware variants -
meticulously modified, functionality-preserving versions of original malware
executables generated by machine learning. Due to the nature of these
adversarial modifications, these adversarial methods often use a \textit{single
view} of malware executables (i.e., the binary/hexadecimal view) to generate
adversarial malware variants. This provides an opportunity for the defenders
(i.e., malware detectors) to detect the adversarial variants by utilizing more
than one view of a malware file (e.g., source code view in addition to the
binary view). The rationale behind this idea is that while the adversary
focuses on the binary view, certain characteristics of the malware file in the
source code view remain untouched which leads to the detection of the
adversarial malware variants. To capitalize on this opportunity, we propose
Adversarially Robust Multiview Malware Defense (ARMD), a novel multi-view
learning framework to improve the robustness of DL-based malware detectors
against adversarial variants. Our experiments on three renowned open-source
deep learning-based malware detectors across six common malware categories show
that ARMD is able to improve the adversarial robustness by up to seven times on
these malware detectors.
- Abstract(参考訳): ディープラーニングベースの敵マルウェア検出装置は、高価な動的挙動解析やサンドボックスに頼ることなく、これまで見たことのないマルウェアを検出できる有望な結果を得た。
その能力にも拘わらず、これらの検出器は、機械学習によって生成された元のマルウェア実行ファイルの機能保存バージョンに対して、敵のマルウェアに対して脆弱であることが示されている。
これらの攻撃的修正の性質から、これらの攻撃的手法は、しばしば、攻撃的マルウェア変異を生成するために、マルウェア実行ファイル(バイナリ/ヘキサデシマルビュー)の \textit{single view} を使用する。
これにより、ディフェンダー(すなわちマルウェア検出器)は、マルウェアファイルの複数のビュー(例えば、バイナリビューに加えてソースコードビュー)を利用して、敵の変種を検出する機会を提供する。
この考え方の理論的根拠は、敵はバイナリビューに焦点を当てているが、ソースコードビュー内のマルウェアファイルの特定の特性は未修正のままであり、敵のマルウェアの変種を検出することになる。
この機会を活かすため,我々は,dlベースのマルウェア検知器の敵型に対するロバスト性を改善するための,新しい多視点学習フレームワークであるadversarially robust multiview malware defense (armd)を提案する。
6つの一般的なマルウェアカテゴリにわたる3つの有名なオープンソースのディープラーニングベースのマルウェア検出実験により、ARMDはこれらのマルウェア検出装置上で最大7倍の敵の堅牢性を向上できることが示された。
関連論文リスト
- MASKDROID: Robust Android Malware Detection with Masked Graph Representations [56.09270390096083]
マルウェアを識別する強力な識別能力を持つ強力な検出器MASKDROIDを提案する。
我々は、グラフニューラルネットワークベースのフレームワークにマスキング機構を導入し、MASKDROIDに入力グラフ全体の復元を強制する。
この戦略により、モデルは悪意のあるセマンティクスを理解し、より安定した表現を学習し、敵攻撃に対する堅牢性を高めることができる。
論文 参考訳(メタデータ) (2024-09-29T07:22:47Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Adversarial Attacks against Windows PE Malware Detection: A Survey of
the State-of-the-Art [44.975088044180374]
本稿は,Windowsオペレーティングシステム,すなわちWindows PEのファイル形式である,ポータブル実行可能(PE)のファイル形式に焦点をあてる。
まず、ML/DLに基づくWindows PEマルウェア検出の一般的な学習フレームワークについて概説する。
次に、PEマルウェアのコンテキストにおいて、敵攻撃を行うという3つのユニークな課題を強調した。
論文 参考訳(メタデータ) (2021-12-23T02:12:43Z) - Single-Shot Black-Box Adversarial Attacks Against Malware Detectors: A
Causal Language Model Approach [5.2424255020469595]
Adversarial Malware example Generationは、回避可能なマルウェアの変種を生成することを目的としている。
ブラックボックス法はホワイトボックス法よりも注目されている。
本研究では,新しいDLに基づく因果言語モデルにより,単発回避が可能となることを示す。
論文 参考訳(メタデータ) (2021-12-03T05:29:50Z) - A Comparison of State-of-the-Art Techniques for Generating Adversarial
Malware Binaries [2.0559497209595814]
我々は,1つの公開可能なマルウェアデータセットから抽出したバイナリマルウェアサンプルを用いて,最近の3つのマルウェア生成手法を評価する。
その結果、比較手法の中で最も有効な手法は、バイナリーヘッダのバイトを戦略的に修正することであることがわかった。
論文 参考訳(メタデータ) (2021-11-22T19:26:33Z) - Mate! Are You Really Aware? An Explainability-Guided Testing Framework
for Robustness of Malware Detectors [49.34155921877441]
マルウェア検出装置のロバスト性を示すための説明可能性誘導型およびモデルに依存しないテストフレームワークを提案する。
次に、このフレームワークを使用して、操作されたマルウェアを検出する最先端のマルウェア検知器の能力をテストする。
我々の発見は、現在のマルウェア検知器の限界と、その改善方法に光を当てた。
論文 参考訳(メタデータ) (2021-11-19T08:02:38Z) - A Novel Malware Detection Mechanism based on Features Extracted from
Converted Malware Binary Images [0.22843885788439805]
マルウェアのバイナリイメージを使用して、異なる特徴を抽出し、得られたデータセットに異なるML分類器を用いる。
本手法は,抽出した特徴に基づくマルウェアの分類に成功していることを示す。
論文 参考訳(メタデータ) (2021-04-14T06:55:52Z) - Being Single Has Benefits. Instance Poisoning to Deceive Malware
Classifiers [47.828297621738265]
攻撃者は、マルウェア分類器を訓練するために使用されるデータセットをターゲットとした、高度で効率的な中毒攻撃を、どのように起動できるかを示す。
マルウェア検出領域における他の中毒攻撃とは対照的に、我々の攻撃はマルウェアファミリーではなく、移植されたトリガーを含む特定のマルウェアインスタンスに焦点を当てている。
我々は、この新たに発見された深刻な脅威に対する将来の高度な防御に役立つ包括的検出手法を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:27:44Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。