論文の概要: Explainable Deep Learning Models for Dynamic and Online Malware Classification
- arxiv url: http://arxiv.org/abs/2404.12473v1
- Date: Thu, 18 Apr 2024 19:07:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-22 16:54:13.343368
- Title: Explainable Deep Learning Models for Dynamic and Online Malware Classification
- Title(参考訳): 動的およびオンラインマルウェア分類のための説明可能なディープラーニングモデル
- Authors: Quincy Card, Daniel Simpson, Kshitiz Aryal, Maanak Gupta, Sheikh Rabiul Islam,
- Abstract要約: 本研究の目的は,様々な実行環境にまたがる説明可能なマルウェア分類を探索することである。
我々は、動的およびオンライン分析環境から得られた特徴に基づいてマルウェアを分類するために、フィードフォワードニューラルネットワーク(FFNN)と畳み込みニューラルネットワーク(CNN)を訓練する。
計算されたグローバルおよびローカルな説明の詳細な評価を行い、制限について議論し、最終的にはバランスの取れたアプローチを達成するための推奨事項を提示します。
- 参考スコア(独自算出の注目度): 0.856335408411906
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years, there has been a significant surge in malware attacks, necessitating more advanced preventive measures and remedial strategies. While several successful AI-based malware classification approaches exist categorized into static, dynamic, or online analysis, most successful AI models lack easily interpretable decisions and explanations for their processes. Our paper aims to delve into explainable malware classification across various execution environments (such as dynamic and online), thoroughly analyzing their respective strengths, weaknesses, and commonalities. To evaluate our approach, we train Feed Forward Neural Networks (FFNN) and Convolutional Neural Networks (CNN) to classify malware based on features obtained from dynamic and online analysis environments. The feature attribution for malware classification is performed by explainability tools, SHAP, LIME and Permutation Importance. We perform a detailed evaluation of the calculated global and local explanations from the experiments, discuss limitations and, ultimately, offer recommendations for achieving a balanced approach.
- Abstract(参考訳): 近年では、マルウェア攻撃が大幅に増加し、より高度な予防措置と治療戦略が必要とされる。
成功したAIベースのマルウェア分類アプローチは、静的、動的、オンライン分析に分類されるが、最も成功したAIモデルは、彼らのプロセスに対する容易に解釈可能な決定と説明を欠いている。
本研究の目的は,様々な実行環境(動的・オンラインなど)にまたがる説明可能なマルウェア分類を探索し,それぞれの強み,弱点,共通点を徹底的に分析することである。
このアプローチを評価するために、動的およびオンライン分析環境から得られた特徴に基づいてマルウェアを分類するために、フィードフォワードニューラルネットワーク(FFNN)と畳み込みニューラルネットワーク(CNN)を訓練する。
マルウェア分類の特徴は、説明可能性ツール、SHAP、LIME、Permutation Importanceによって実現されている。
計算されたグローバルおよびローカルな説明の詳細な評価を行い、制限について議論し、最終的にはバランスの取れたアプローチを達成するための推奨事項を提示します。
関連論文リスト
- Neural Networks Decoded: Targeted and Robust Analysis of Neural Network Decisions via Causal Explanations and Reasoning [9.947555560412397]
本稿では、因果推論理論に基づく新しい手法TRACERを紹介し、DNN決定の根底にある因果ダイナミクスを推定する。
提案手法は入力特徴に系統的に介入し,特定の変化がネットワークを介してどのように伝播するかを観察し,内部の活性化と最終的な出力に影響を与える。
TRACERはさらに、モデルバイアスの可能性のある反ファクトを生成することで説明可能性を高め、誤分類に対する対照的な説明を提供する。
論文 参考訳(メタデータ) (2024-10-07T20:44:53Z) - Explainability-Informed Targeted Malware Misclassification [0.0]
マルウェア分類をカテゴリに分類する機械学習モデルは有望な結果を示している。
ディープニューラルネットワークは、意図的な敵攻撃に対する脆弱性を示している。
本稿では,ニューラルネットワークを用いたマルウェア分類システムにおいて,このような攻撃的脆弱性について検討する。
論文 参考訳(メタデータ) (2024-05-07T04:59:19Z) - Comprehensive evaluation of Mal-API-2019 dataset by machine learning in malware detection [0.5475886285082937]
本研究では,機械学習技術を用いたマルウェア検出の徹底的な検討を行う。
その目的は、脅威をより効果的に識別し緩和することで、サイバーセキュリティの能力を向上させることである。
論文 参考訳(メタデータ) (2024-03-04T17:22:43Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Dynamics-aware Adversarial Attack of Adaptive Neural Networks [75.50214601278455]
適応型ニューラルネットワークの動的対向攻撃問題について検討する。
本稿では,LGM(Leaded Gradient Method)を提案する。
我々のLGMは、動的無意識攻撃法と比較して、優れた敵攻撃性能を達成している。
論文 参考訳(メタデータ) (2022-10-15T01:32:08Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - A novel DL approach to PE malware detection: exploring Glove
vectorization, MCC_RCNN and feature fusion [0.0]
モデルにフィードバックされた静的機能を用いて,DLベースの検出手法を提案する。
CNN と RNN を組み合わせた MCC_RCNN と呼ばれるニューラルネットワークモデルを実装します。
提案した分類法は他のベースライン法よりも高い予測精度を得ることができる。
論文 参考訳(メタデータ) (2021-01-22T07:08:10Z) - An Adversarial Approach for Explaining the Predictions of Deep Neural
Networks [9.645196221785694]
本稿では,敵対的機械学習を用いて,ディープニューラルネットワーク(DNN)の予測を説明する新しいアルゴリズムを提案する。
提案手法は,DNNに対する敵攻撃の挙動に基づいて,入力特徴の相対的重要性を推定する。
分析により、一貫性のある効率的な説明が得られます。
論文 参考訳(メタデータ) (2020-05-20T18:06:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。