論文の概要: Interpreting GNN-based IDS Detections Using Provenance Graph Structural Features
- arxiv url: http://arxiv.org/abs/2306.00934v5
- Date: Tue, 17 Dec 2024 03:59:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:55:22.887331
- Title: Interpreting GNN-based IDS Detections Using Provenance Graph Structural Features
- Title(参考訳): Provenance Graph構造特徴を用いたGNNによるIDS検出の解釈
- Authors: Kunal Mukherjee, Joshua Wiedemeier, Tianhao Wang, Muhyun Kim, Feng Chen, Murat Kantarcioglu, Kangkook Jee,
- Abstract要約: ProVEXPLAINERは,解釈可能なサロゲートモデルを用いて,インスタンスレベルのセキュリティ対応の説明を提供するフレームワークである。
マルウェアとAPTデータセットでは、PROVEXPLAINERは29%/27%/25%高いフィディリティ+、精度とリコール、それぞれ12%低いフィディリティを達成している。
- 参考スコア(独自算出の注目度): 15.256262257064982
- License:
- Abstract: Advanced cyber threats (e.g., Fileless Malware and Advanced Persistent Threat (APT)) have driven the adoption of provenance-based security solutions. These solutions employ Machine Learning (ML) models for behavioral modeling and critical security tasks such as malware and anomaly detection. However, the opacity of ML-based security models limits their broader adoption, as the lack of transparency in their decision-making processes restricts explainability and verifiability. We tailored our solution towards Graph Neural Network (GNN)-based security solutions since recent studies employ GNNs to comprehensively digest system provenance graphs for security critical tasks. To enhance the explainability of GNN-based security models, we introduce PROVEXPLAINER, a framework offering instance-level security-aware explanations using an interpretable surrogate model. PROVEXPLAINER's interpretable feature space consists of discriminant subgraph patterns and graph structural features, which can be directly mapped to the system provenance problem space, making the explanations human understandable. By considering prominent GNN architectures (e.g., GAT and GraphSAGE) for anomaly detection tasks, we show how PROVEXPLAINER synergizes with current state-of-the-art (SOTA) GNN explainers to deliver domain and instance-specific explanations. We measure the explanation quality using the fidelity+/fidelity- metric as used by traditional GNN explanation literature, and we incorporate the precision/recall metric where we consider the accuracy of the explanation against the ground truth. On malware and APT datasets, PROVEXPLAINER achieves up to 29%/27%/25% higher fidelity+, precision and recall, and 12% lower fidelity- respectively, compared to SOTA GNN explainers.
- Abstract(参考訳): 高度なサイバー脅威(Fileless MalwareやAdvanced Persistent Threat (APT)など)は、証明ベースのセキュリティソリューションの採用を促している。
これらのソリューションは、行動モデリングとマルウェアや異常検出などの重要なセキュリティタスクに機械学習(ML)モデルを使用する。
しかし、MLベースのセキュリティモデルの不透明さは、意思決定プロセスにおける透明性の欠如が説明可能性と検証可能性を制限するため、より広範な採用を制限する。
近年の研究では、GNNを使用してセキュリティクリティカルなタスクのためのシステムプロファイランスグラフを包括的に消化しているため、グラフニューラルネットワーク(GNN)ベースのセキュリティソリューションに対するソリューションを調整しました。
GNNベースのセキュリティモデルの説明可能性を高めるために,解釈可能なサロゲートモデルを用いて,インスタンスレベルのセキュリティ対応の説明を提供するフレームワークであるPROVEXPLAINERを紹介した。
PROVEXPLAINERの解釈可能な特徴空間は、識別された部分グラフパターンとグラフ構造的特徴からなり、それはシステム証明問題空間に直接マッピングされ、説明が人間の理解可能となる。
異常検出タスクにおける顕著なGNNアーキテクチャ(GAT,GraphSAGEなど)を考慮することで,PROVEXPLAINERが現在のSOTA(State-of-the-art)GNN説明器と相乗してドメインやインスタンス固有の説明を提供する方法を示す。
従来のGNN説明文献で用いられる忠実度+/忠実度-尺度を用いて説明品質を計測し,その精度を基礎真実に対する説明の正確さを考察する。
マルウェアとAPTのデータセットでは、SOTA GNNの説明者と比較して、PROVEXPLAINERは29%/27%/25%高い忠実度+、精度とリコール、そして12%低い忠実度を達成している。
関連論文リスト
- SE-SGformer: A Self-Explainable Signed Graph Transformer for Link Sign Prediction [8.820909397907274]
符号付きグラフニューラルネットワーク(SGNN)は、正と負のリンクが共存する現実の状況において、複雑なパターンを分析するのに有効であることが示されている。
SGNNモデルは説明可能性の低さに悩まされており、予測の背後にある理論的根拠を理解する必要のある重要なシナリオでの採用を制限する。
本稿では,高い予測精度を確保しつつ説明可能な情報を出力するSelf-Explainable Signed Graph Transformer (SE-SGformer) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-16T13:54:50Z) - Graph Neural Networks for Vulnerability Detection: A Counterfactual Explanation [41.831831628421675]
グラフニューラルネットワーク(GNN)は、脆弱性検出のための顕著なコード埋め込みアプローチとして登場した。
本稿では,GNNに基づく脆弱性検出のための新しいファクト・ファクト・アナライザCFExplainerを提案する。
論文 参考訳(メタデータ) (2024-04-24T06:52:53Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Explainable Spatio-Temporal Graph Neural Networks [16.313146933922752]
本稿では,STGNNを本質的に説明可能な形で拡張する,説明可能な時空間グラフニューラルネットワーク(STGNN)フレームワークを提案する。
本フレームワークは,STGエンコーダとデコーダとして位置情報融合層と統合時間グラフアテンションネットワークを統合した。
予測精度と説明可能性の指標から,STExplainerは最先端のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-10-26T04:47:28Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。