論文の概要: Explainable Ensemble Learning for Graph-Based Malware Detection
- arxiv url: http://arxiv.org/abs/2508.09801v1
- Date: Wed, 13 Aug 2025 13:33:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.902858
- Title: Explainable Ensemble Learning for Graph-Based Malware Detection
- Title(参考訳): グラフベースのマルウェア検出のための説明可能なアンサンブル学習
- Authors: Hossein Shokouhinejad, Roozbeh Razavi-Far, Griffin Higgins, Ali A Ghorbani,
- Abstract要約: 本稿では,グラフベースのマルウェア検出と説明のための新しいスタックングアンサンブルフレームワークを提案する。
本フレームワークは,マルウェアの行動に関する洞察に富んだ解釈を提供しながら,分類性能を向上させる。
- 参考スコア(独自算出の注目度): 2.6436521007616114
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Malware detection in modern computing environments demands models that are not only accurate but also interpretable and robust to evasive techniques. Graph neural networks (GNNs) have shown promise in this domain by modeling rich structural dependencies in graph-based program representations such as control flow graphs (CFGs). However, single-model approaches may suffer from limited generalization and lack interpretability, especially in high-stakes security applications. In this paper, we propose a novel stacking ensemble framework for graph-based malware detection and explanation. Our method dynamically extracts CFGs from portable executable (PE) files and encodes their basic blocks through a two-step embedding strategy. A set of diverse GNN base learners, each with a distinct message-passing mechanism, is used to capture complementary behavioral features. Their prediction outputs are aggregated by a meta-learner implemented as an attention-based multilayer perceptron, which both classifies malware instances and quantifies the contribution of each base model. To enhance explainability, we introduce an ensemble-aware post-hoc explanation technique that leverages edge-level importance scores generated by a GNN explainer and fuses them using the learned attention weights. This produces interpretable, model-agnostic explanations aligned with the final ensemble decision. Experimental results demonstrate that our framework improves classification performance while providing insightful interpretations of malware behavior.
- Abstract(参考訳): 現代のコンピューティング環境でのマルウェア検出は、正確であるだけでなく、回避技術に対して解釈可能で堅牢なモデルを必要とする。
グラフニューラルネットワーク(GNN)は、制御フローグラフ(CFG)のようなグラフベースのプログラム表現において、リッチな構造的依存関係をモデル化することによって、この領域において有望であることを示す。
しかし、シングルモデルアプローチは、特に高度なセキュリティアプリケーションにおいて、限定的な一般化と解釈可能性の欠如に悩まされる可能性がある。
本稿では,グラフベースのマルウェア検出と説明のための新しいスタックングアンサンブルフレームワークを提案する。
本手法は,可搬型実行可能ファイルからCFGを動的に抽出し,その基本ブロックを2段階の埋め込み戦略により符号化する。
異なるメッセージパス機構を持つ多様なGNNベースの学習者のセットは、相補的な行動特徴をキャプチャするために使用される。
それらの予測出力は、アテンションベースの多層パーセプトロンとして実装されたメタリアナーによって集約され、マルウェアのインスタンスを分類し、各ベースモデルのコントリビューションを定量化する。
説明可能性を高めるために,GNN説明器が生成するエッジレベルの重要度を活かし,学習した注意重みを用いて融合する,アンサンブル対応のポストホック説明手法を導入する。
これにより、最終的なアンサンブル決定に沿った解釈可能な、モデルに依存しない説明が生成される。
実験結果から,本フレームワークはマルウェアの挙動を洞察的に解釈しながら,分類性能の向上を図っている。
関連論文リスト
- Dual Explanations via Subgraph Matching for Malware Detection [2.6436521007616114]
解釈可能なマルウェア検出は、有害な振る舞いを理解し、自動セキュリティシステムへの信頼を構築するために不可欠である。
グラフニューラルネットワーク(GNN)の従来の説明可能なメソッドは、しばしばグラフ内の重要な領域をハイライトするが、既知の良性や悪意のある行動パターンと関連付けることができない。
本稿では,GNNに基づくマルウェア検出決定を解釈する,新しい2つのプロトタイプ駆動型説明可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-29T16:20:28Z) - On the Consistency of GNN Explanations for Malware Detection [2.464148828287322]
制御フローグラフ(CFG)は、プログラムの実行を分析し、マルウェアの振る舞いを特徴づけるのに重要である。
本研究では、CFGを動的に構築し、ハイブリッドアプローチを用いてノード特徴を埋め込む新しいフレームワークを提案する。
その後、GNNベースの分類器が構築され、結果のグラフ表現から悪意のある振る舞いを検出する。
論文 参考訳(メタデータ) (2025-04-22T23:25:12Z) - Beyond Message Passing: Neural Graph Pattern Machine [50.78679002846741]
本稿では,グラフサブストラクチャから直接学習することで,メッセージパッシングをバイパスする新しいフレームワークであるNeural Graph Pattern Machine(GPM)を紹介する。
GPMはタスク関連グラフパターンを効率的に抽出し、エンコードし、優先順位付けする。
論文 参考訳(メタデータ) (2025-01-30T20:37:47Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - Interpreting GNN-based IDS Detections Using Provenance Graph Structural Features [15.256262257064982]
ProVEXPLAINERは,解釈可能なサロゲートモデルを用いて,インスタンスレベルのセキュリティ対応の説明を提供するフレームワークである。
マルウェアとAPTデータセットでは、PROVEXPLAINERは29%/27%/25%高いフィディリティ+、精度とリコール、それぞれ12%低いフィディリティを達成している。
論文 参考訳(メタデータ) (2023-06-01T17:36:24Z) - Structural Explanations for Graph Neural Networks using HSIC [21.929646888419914]
グラフニューラルネットワーク(GNN)は、グラフィカルなタスクをエンドツーエンドで処理するニューラルネットワークの一種である。
GNNの複雑なダイナミクスは、グラフの特徴のどの部分が予測に強く寄与しているかを理解するのを困難にしている。
本研究では,グラフ内の重要な構造を検出するために,フレキシブルモデルに依存しない説明法を提案する。
論文 参考訳(メタデータ) (2023-02-04T09:46:47Z) - Software Vulnerability Detection via Deep Learning over Disaggregated
Code Graph Representation [57.92972327649165]
この研究は、コードコーパスから安全でないパターンを自動的に学習するためのディープラーニングアプローチを探求する。
コードには解析を伴うグラフ構造が自然に認められるため,プログラムの意味的文脈と構造的規則性の両方を利用する新しいグラフニューラルネットワーク(GNN)を開発する。
論文 参考訳(メタデータ) (2021-09-07T21:24:36Z) - Model-Agnostic Graph Regularization for Few-Shot Learning [60.64531995451357]
グラフ組み込み数ショット学習に関する包括的な研究を紹介します。
本稿では,ラベル間のグラフ情報の組み込みによる影響をより深く理解できるグラフ正規化手法を提案する。
提案手法は,Mini-ImageNetで最大2%,ImageNet-FSで6.7%の性能向上を実現する。
論文 参考訳(メタデータ) (2021-02-14T05:28:13Z) - Amortized Probabilistic Detection of Communities in Graphs [39.56798207634738]
そこで我々は,アモータイズされたコミュニティ検出のためのシンプルなフレームワークを提案する。
我々はGNNの表現力と最近のアモータイズクラスタリングの手法を組み合わせる。
我々は、合成および実データセットに関するフレームワークから、いくつかのモデルを評価する。
論文 参考訳(メタデータ) (2020-10-29T16:18:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。