論文の概要: Dual Explanations via Subgraph Matching for Malware Detection
- arxiv url: http://arxiv.org/abs/2504.20904v1
- Date: Tue, 29 Apr 2025 16:20:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.984425
- Title: Dual Explanations via Subgraph Matching for Malware Detection
- Title(参考訳): マルウェア検出のためのサブグラフマッチングによるデュアル説明
- Authors: Hossein Shokouhinejad, Roozbeh Razavi-Far, Griffin Higgins, Ali A. Ghorbani,
- Abstract要約: 解釈可能なマルウェア検出は、有害な振る舞いを理解し、自動セキュリティシステムへの信頼を構築するために不可欠である。
グラフニューラルネットワーク(GNN)の従来の説明可能なメソッドは、しばしばグラフ内の重要な領域をハイライトするが、既知の良性や悪意のある行動パターンと関連付けることができない。
本稿では,GNNに基づくマルウェア検出決定を解釈する,新しい2つのプロトタイプ駆動型説明可能なフレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.6436521007616114
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretable malware detection is crucial for understanding harmful behaviors and building trust in automated security systems. Traditional explainable methods for Graph Neural Networks (GNNs) often highlight important regions within a graph but fail to associate them with known benign or malicious behavioral patterns. This limitation reduces their utility in security contexts, where alignment with verified prototypes is essential. In this work, we introduce a novel dual prototype-driven explainable framework that interprets GNN-based malware detection decisions. This dual explainable framework integrates a base explainer (a state-of-the-art explainer) with a novel second-level explainer which is designed by subgraph matching technique, called SubMatch explainer. The proposed explainer assigns interpretable scores to nodes based on their association with matched subgraphs, offering a fine-grained distinction between benign and malicious regions. This prototype-guided scoring mechanism enables more interpretable, behavior-aligned explanations. Experimental results demonstrate that our method preserves high detection performance while significantly improving interpretability in malware analysis.
- Abstract(参考訳): 解釈可能なマルウェア検出は、有害な振る舞いを理解し、自動セキュリティシステムへの信頼を構築するために不可欠である。
グラフニューラルネットワーク(GNN)の従来の説明可能なメソッドは、しばしばグラフ内の重要な領域をハイライトするが、既知の良性や悪意のある行動パターンと関連付けることができない。
この制限は、検証済みのプロトタイプとのアライメントが不可欠であるセキュリティのコンテキストにおいて、その実用性を低下させる。
本稿では,GNNに基づくマルウェア検出決定を解釈する,新しい2つのプロトタイプ駆動型説明可能なフレームワークを提案する。
この二重説明可能なフレームワークは、ベース説明書(最先端説明書)と、サブグラフマッチング技術によって設計された新しい第2レベルの説明書(SubMatch説明書)を統合する。
提案する説明書は,一致した部分グラフとの関連性に基づいて,解釈可能なスコアをノードに割り当て,良性領域と悪意領域を微妙に区別する。
このプロトタイプ誘導型スコアリング機構は、より解釈可能な行動整合性説明を可能にする。
実験により,本手法は高い検出性能を保ちながら,マルウェア解析の解釈可能性を大幅に向上することを示した。
関連論文リスト
- On the Consistency of GNN Explanations for Malware Detection [2.464148828287322]
制御フローグラフ(CFG)は、プログラムの実行を分析し、マルウェアの振る舞いを特徴づけるのに重要である。
本研究では、CFGを動的に構築し、ハイブリッドアプローチを用いてノード特徴を埋め込む新しいフレームワークを提案する。
その後、GNNベースの分類器が構築され、結果のグラフ表現から悪意のある振る舞いを検出する。
論文 参考訳(メタデータ) (2025-04-22T23:25:12Z) - AnomalyAID: Reliable Interpretation for Semi-supervised Network Anomaly Detection [5.587032325025624]
半教師付き学習は,ネットワーク異常検出アプリケーションにおいて重要な役割を担っている。
解釈可能性の欠如は、実際に半教師付きフレームワークを採用する上で重要な障壁となる。
本稿では,異常検出過程を解釈可能とし,解釈結果の信頼性を向上させるための異常AIDを提案する。
論文 参考訳(メタデータ) (2024-11-18T05:39:00Z) - Explainable Malware Detection with Tailored Logic Explained Networks [9.506820624395447]
マルウェア検出は、新しい攻撃技術が急速に発達しているため、サイバーセキュリティにおいて恒常的な課題である。
従来のシグネチャベースのアプローチは、大量のマルウェアサンプルとペースを維持するのに苦労している。
マシンラーニングは有望なソリューションを提供するが、見つからないサンプルへの一般化と、マルウェアとして特定されたインスタンスの説明の欠如という問題に直面している。
論文 参考訳(メタデータ) (2024-05-05T17:36:02Z) - Coca: Improving and Explaining Graph Neural Network-Based Vulnerability
Detection Systems [16.005996517940964]
グラフニューラルネットワーク(GNN)ベースの脆弱性検出システムは大きな成功を収めている。
説明責任の欠如は、セキュリティ関連ドメインにブラックボックスモデルをデプロイする上で重要な課題となる。
我々は,既存のGNNベースの脆弱性検出モデルの堅牢性向上を目的とした,一般的なフレームワークであるCocaを提案する。
論文 参考訳(メタデータ) (2024-01-26T14:14:52Z) - BOURNE: Bootstrapped Self-supervised Learning Framework for Unified
Graph Anomaly Detection [50.26074811655596]
自己指導型自己学習(BOURNE)に基づく新しい統合グラフ異常検出フレームワークを提案する。
ノードとエッジ間のコンテキスト埋め込みを交換することで、ノードとエッジの異常を相互に検出できる。
BOURNEは、負のサンプリングを必要としないため、大きなグラフを扱う際の効率を高めることができる。
論文 参考訳(メタデータ) (2023-07-28T00:44:57Z) - Interpreting GNN-based IDS Detections Using Provenance Graph Structural Features [15.256262257064982]
ProVEXPLAINERは,解釈可能なサロゲートモデルを用いて,インスタンスレベルのセキュリティ対応の説明を提供するフレームワークである。
マルウェアとAPTデータセットでは、PROVEXPLAINERは29%/27%/25%高いフィディリティ+、精度とリコール、それぞれ12%低いフィディリティを達成している。
論文 参考訳(メタデータ) (2023-06-01T17:36:24Z) - Software Vulnerability Detection via Deep Learning over Disaggregated
Code Graph Representation [57.92972327649165]
この研究は、コードコーパスから安全でないパターンを自動的に学習するためのディープラーニングアプローチを探求する。
コードには解析を伴うグラフ構造が自然に認められるため,プログラムの意味的文脈と構造的規則性の両方を利用する新しいグラフニューラルネットワーク(GNN)を開発する。
論文 参考訳(メタデータ) (2021-09-07T21:24:36Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。