論文の概要: Explainable Malware Detection with Tailored Logic Explained Networks
- arxiv url: http://arxiv.org/abs/2405.03009v1
- Date: Sun, 5 May 2024 17:36:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 15:33:57.839738
- Title: Explainable Malware Detection with Tailored Logic Explained Networks
- Title(参考訳): Talored Logic Explained Networks を用いた説明可能なマルウェア検出
- Authors: Peter Anthony, Francesco Giannini, Michelangelo Diligenti, Martin Homola, Marco Gori, Stefan Balogh, Jan Mojzis,
- Abstract要約: マルウェア検出は、新しい攻撃技術が急速に発達しているため、サイバーセキュリティにおいて恒常的な課題である。
従来のシグネチャベースのアプローチは、大量のマルウェアサンプルとペースを維持するのに苦労している。
マシンラーニングは有望なソリューションを提供するが、見つからないサンプルへの一般化と、マルウェアとして特定されたインスタンスの説明の欠如という問題に直面している。
- 参考スコア(独自算出の注目度): 9.506820624395447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Malware detection is a constant challenge in cybersecurity due to the rapid development of new attack techniques. Traditional signature-based approaches struggle to keep pace with the sheer volume of malware samples. Machine learning offers a promising solution, but faces issues of generalization to unseen samples and a lack of explanation for the instances identified as malware. However, human-understandable explanations are especially important in security-critical fields, where understanding model decisions is crucial for trust and legal compliance. While deep learning models excel at malware detection, their black-box nature hinders explainability. Conversely, interpretable models often fall short in performance. To bridge this gap in this application domain, we propose the use of Logic Explained Networks (LENs), which are a recently proposed class of interpretable neural networks providing explanations in the form of First-Order Logic (FOL) rules. This paper extends the application of LENs to the complex domain of malware detection, specifically using the large-scale EMBER dataset. In the experimental results we show that LENs achieve robustness that exceeds traditional interpretable methods and that are rivaling black-box models. Moreover, we introduce a tailored version of LENs that is shown to generate logic explanations with higher fidelity with respect to the model's predictions.
- Abstract(参考訳): マルウェア検出は、新しい攻撃技術が急速に発達しているため、サイバーセキュリティにおいて恒常的な課題である。
従来のシグネチャベースのアプローチは、大量のマルウェアサンプルとペースを維持するのに苦労している。
マシンラーニングは有望なソリューションを提供するが、見つからないサンプルへの一般化と、マルウェアとして特定されたインスタンスの説明の欠如という問題に直面している。
しかし、モデル決定の理解が信頼と法的遵守に不可欠である、セキュリティクリティカルな分野において、人間には理解できない説明が特に重要である。
ディープラーニングモデルはマルウェア検出に優れているが、ブラックボックスの性質は説明可能性を妨げる。
逆に、解釈可能なモデルは性能に欠けることが多い。
このアプリケーション領域におけるこのギャップを埋めるために、最近提案された解釈可能なニューラルネットワークのクラスであるLogic Explained Networks (LENs) を提案する。
本稿では,大規模なEMBERデータセットを用いて,マルウェア検出の複雑な領域へのLENの適用を拡大する。
実験結果から,従来の解釈可能な手法を超越し,ブラックボックスモデルに匹敵するロバスト性を実現することを示す。
さらに、モデルの予測に対して高い忠実度を持つ論理的説明を生成するために、LENの調整版を導入する。
関連論文リスト
- MASKDROID: Robust Android Malware Detection with Masked Graph Representations [56.09270390096083]
マルウェアを識別する強力な識別能力を持つ強力な検出器MASKDROIDを提案する。
我々は、グラフニューラルネットワークベースのフレームワークにマスキング機構を導入し、MASKDROIDに入力グラフ全体の復元を強制する。
この戦略により、モデルは悪意のあるセマンティクスを理解し、より安定した表現を学習し、敵攻撃に対する堅牢性を高めることができる。
論文 参考訳(メタデータ) (2024-09-29T07:22:47Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - SoK: Realistic Adversarial Attacks and Defenses for Intelligent Network
Intrusion Detection [0.0]
本稿では,現実的な実例を生み出すことのできる,最先端の対人学習アプローチの統合と要約を行う。
これは、逆例が現実的であるために必要な基本的性質を定義する。
研究者が将来の実験が実際の通信ネットワークに適切であることを確実にするためのガイドラインを提供する。
論文 参考訳(メタデータ) (2023-08-13T17:23:36Z) - Logically Consistent Adversarial Attacks for Soft Theorem Provers [110.17147570572939]
本稿では,言語モデルの推論能力の探索と改善のための生成的逆説フレームワークを提案する。
我々のフレームワークは、敵の攻撃をうまく発生させ、グローバルな弱点を識別する。
有効探索に加えて, 生成したサンプルのトレーニングにより, 対象モデルの性能が向上することを示す。
論文 参考訳(メタデータ) (2022-04-29T19:10:12Z) - Learning Explainable Representations of Malware Behavior [3.718942345103135]
我々は、ネットワークフローデータを理解可能なEmphnetworkイベントに処理するニューラルネットワークを開発する。
次に,脅威の特徴的行動パターンを協調的に構成する事象を強調するために,エンフィグライズド・グラディエント法を用いる。
本システムは,行動パターンに基づいて,njRATや他のマルウェアを検知する方法を実証する。
論文 参考訳(メタデータ) (2021-06-23T11:50:57Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Explaining Network Intrusion Detection System Using Explainable AI
Framework [0.5076419064097734]
侵入検知システムは、今日の世界のサイバー安全の重要なレイヤーの1つです。
本稿では,ディープニューラルネットワークを用いてネットワーク侵入検出を行った。
また、機械学習パイプラインの各段階で透明性を追加する説明可能なAIフレームワークも提案しました。
論文 参考訳(メタデータ) (2021-03-12T07:15:09Z) - Towards interpreting ML-based automated malware detection models: a
survey [4.721069729610892]
既存の機械学習モデルのほとんどはブラックボックスで、プレディションの結果は予測不能になった。
本論文は,MLベースのマルウェア検出器の解釈可能性に関する既存の研究を検討し,分類することを目的とする。
論文 参考訳(メタデータ) (2021-01-15T17:34:40Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Interpreting Machine Learning Malware Detectors Which Leverage N-gram
Analysis [2.6397379133308214]
サイバーセキュリティアナリストは、常にルールベースや署名ベースの検出と同じくらい解釈可能で理解可能なソリューションを好む。
本研究の目的は,MLベースのマルウェア検出装置に適用した場合の,最先端のMLモデルの解釈可能性の評価である。
論文 参考訳(メタデータ) (2020-01-27T19:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。