論文の概要: Explainability-Informed Targeted Malware Misclassification
- arxiv url: http://arxiv.org/abs/2405.04010v1
- Date: Tue, 7 May 2024 04:59:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 15:18:57.112867
- Title: Explainability-Informed Targeted Malware Misclassification
- Title(参考訳): 説明可能性インフォームド・ターゲット型マルウェアの誤分類
- Authors: Quincy Card, Kshitiz Aryal, Maanak Gupta,
- Abstract要約: マルウェア分類をカテゴリに分類する機械学習モデルは有望な結果を示している。
ディープニューラルネットワークは、意図的な敵攻撃に対する脆弱性を示している。
本稿では,ニューラルネットワークを用いたマルウェア分類システムにおいて,このような攻撃的脆弱性について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years, there has been a surge in malware attacks across critical infrastructures, requiring further research and development of appropriate response and remediation strategies in malware detection and classification. Several works have used machine learning models for malware classification into categories, and deep neural networks have shown promising results. However, these models have shown its vulnerabilities against intentionally crafted adversarial attacks, which yields misclassification of a malicious file. Our paper explores such adversarial vulnerabilities of neural network based malware classification system in the dynamic and online analysis environments. To evaluate our approach, we trained Feed Forward Neural Networks (FFNN) to classify malware categories based on features obtained from dynamic and online analysis environments. We use the state-of-the-art method, SHapley Additive exPlanations (SHAP), for the feature attribution for malware classification, to inform the adversarial attackers about the features with significant importance on classification decision. Using the explainability-informed features, we perform targeted misclassification adversarial white-box evasion attacks using the Fast Gradient Sign Method (FGSM) and Projected Gradient Descent (PGD) attacks against the trained classifier. Our results demonstrated high evasion rate for some instances of attacks, showing a clear vulnerability of a malware classifier for such attacks. We offer recommendations for a balanced approach and a benchmark for much-needed future research into evasion attacks against malware classifiers, and develop more robust and trustworthy solutions.
- Abstract(参考訳): 近年、重要なインフラをまたいだマルウェア攻撃が急増しており、マルウェアの検出と分類において適切な対応と修復戦略のさらなる研究と開発が求められている。
いくつかの研究では、マルウェアを分類するために機械学習モデルを使用しており、ディープニューラルネットワークは有望な結果を示している。
しかし、これらのモデルは意図的な敵攻撃に対する脆弱性を示しており、悪意のあるファイルの誤分類をもたらす。
本稿では,ニューラルネットワークを用いたマルウェア分類システムの動的およびオンライン解析環境における敵的脆弱性について検討する。
提案手法を評価するために,動的およびオンライン分析環境から得られた特徴に基づいてマルウェアカテゴリを分類するために,FFNN(Feed Forward Neural Networks)を訓練した。
我々は、マルウェア分類に寄与する特徴として、最先端のSHAP(SHapley Additive exPlanations)を用いて、攻撃者に対して、分類決定に重要な重要な特徴を知らせる。
本稿では,FGSM(Fast Gradient Sign Method)とPGD(Projected Gradient Descent)を用いて,学習した分類器に対するターゲットミス分類逆ホワイトボックス回避攻撃を行う。
その結果,攻撃事例では高い回避率を示し,そのような攻撃に対するマルウェア分類器の脆弱性が明らかとなった。
我々は、バランスのとれたアプローチの推奨と、マルウェア分類器に対する回避攻撃に関する、待望の将来の研究のためのベンチマークを提供し、より堅牢で信頼性の高いソリューションを開発します。
関連論文リスト
- MASKDROID: Robust Android Malware Detection with Masked Graph Representations [56.09270390096083]
マルウェアを識別する強力な識別能力を持つ強力な検出器MASKDROIDを提案する。
我々は、グラフニューラルネットワークベースのフレームワークにマスキング機構を導入し、MASKDROIDに入力グラフ全体の復元を強制する。
この戦略により、モデルは悪意のあるセマンティクスを理解し、より安定した表現を学習し、敵攻撃に対する堅牢性を高めることができる。
論文 参考訳(メタデータ) (2024-09-29T07:22:47Z) - Model-agnostic clean-label backdoor mitigation in cybersecurity environments [6.857489153636145]
近年の研究では、セキュリティ分類タスク用に設計されたモデルにバックドアを注入する、一連の悪質な訓練時間攻撃が表面化している。
我々は、サイバーセキュリティ脅威モデルの洞察を活用して、これらのクリーンラベル中毒攻撃を効果的に軽減する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-11T03:25:40Z) - Explainable Deep Learning Models for Dynamic and Online Malware Classification [0.856335408411906]
本研究の目的は,様々な実行環境にまたがる説明可能なマルウェア分類を探索することである。
我々は、動的およびオンライン分析環境から得られた特徴に基づいてマルウェアを分類するために、フィードフォワードニューラルネットワーク(FFNN)と畳み込みニューラルネットワーク(CNN)を訓練する。
計算されたグローバルおよびローカルな説明の詳細な評価を行い、制限について議論し、最終的にはバランスの取れたアプローチを達成するための推奨事項を提示します。
論文 参考訳(メタデータ) (2024-04-18T19:07:51Z) - Case Study: Neural Network Malware Detection Verification for Feature and Image Datasets [5.198311758274061]
我々は、敵に対する具体的な保護を確保するのに役立つ新しい検証ドメインを提案する。
マルウェア分類と2種類の共通マルウェアデータセットについて述べる。
マルウェア分類の検証の改善と改善に必要な課題と今後の考察について概説する。
論文 参考訳(メタデータ) (2024-04-08T17:37:22Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - A Malware Classification Survey on Adversarial Attacks and Defences [0.0]
ディープラーニングモデルはマルウェアの検出には有効だが、敵の攻撃に対して脆弱である。
このような攻撃は、検出に抵抗する悪意のあるファイルを生成し、重大なサイバーセキュリティリスクを生み出す。
近年の研究では、いくつかの敵対的攻撃と反応のアプローチが開発されている。
論文 参考訳(メタデータ) (2023-12-15T09:25:48Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Binary Black-box Evasion Attacks Against Deep Learning-based Static
Malware Detectors with Adversarial Byte-Level Language Model [11.701290164823142]
MalRNNは、制限なく回避可能なマルウェアバリアントを自動的に生成する新しいアプローチです。
MalRNNは、3つの最近のディープラーニングベースのマルウェア検出器を効果的に回避し、現在のベンチマークメソッドを上回ります。
論文 参考訳(メタデータ) (2020-12-14T22:54:53Z) - Being Single Has Benefits. Instance Poisoning to Deceive Malware
Classifiers [47.828297621738265]
攻撃者は、マルウェア分類器を訓練するために使用されるデータセットをターゲットとした、高度で効率的な中毒攻撃を、どのように起動できるかを示す。
マルウェア検出領域における他の中毒攻撃とは対照的に、我々の攻撃はマルウェアファミリーではなく、移植されたトリガーを含む特定のマルウェアインスタンスに焦点を当てている。
我々は、この新たに発見された深刻な脅威に対する将来の高度な防御に役立つ包括的検出手法を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:27:44Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。