論文の概要: Explaining Provenance-Based GNN Detectors with Graph Structural Features
- arxiv url: http://arxiv.org/abs/2306.00934v3
- Date: Mon, 21 Oct 2024 18:24:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-23 14:25:35.522413
- Title: Explaining Provenance-Based GNN Detectors with Graph Structural Features
- Title(参考訳): グラフ構造を持つプロバンスベースGNN検出器の解説
- Authors: Kunal Mukherjee, Joshua Wiedemeier, Tianhao Wang, Muhyun Kim, Feng Chen, Murat Kantarcioglu, Kangkook Jee,
- Abstract要約: 本稿では,MLモデルの決定境界を代理DTの解釈可能な特徴空間に変換することで,セキュリティに配慮した説明を提供するフレームワークであるPROVEXPLAINERを紹介する。
我々のフレームワークは、主にGNNを使用して構築されたセキュリティモデルの説明に焦点を当てている。
PROVEXPLAINER は SOTA GNN の説明器と比較して最大 9.14% と 6.97% の精度で再現できる。
- 参考スコア(独自算出の注目度): 15.256262257064982
- License:
- Abstract: The opaqueness of ML-based security models hinders their broad adoption and consequently restricts transparent security operations due to their limited verifiability and explainability. To enhance the explainability of ML-based security models, we introduce PROVEXPLAINER, a framework offering security-aware explanations by translating an ML model's decision boundary onto the interpretable feature space of a surrogate DT. Our PROVEXPLAINER framework primarily focuses on explaining security models that are built using GNNs since recent studies employ GNNs to comprehensively digest system provenance graphs for security critical tasks. PROVEXPLAINER uses graph structural features based on security domain knowledge gained from extensive data analysis, utilizing public and private system provenance datasets. PROVEXPLAINER's interpretable feature space can be directly mapped to the system provenance problem space, making the explanations human understandable. Because the security landscape is constantly changing, PROVEXPLAINER can be easily extended with new explanatory features as they are identified in the wild. By considering prominent GNN architectures (e.g., GAT and GraphSAGE) for program classification and anomaly detection tasks, we show how PROVEXPLAINER synergizes with current SOTA GNN explainers to deliver domain-specific explanations. On malware and APT datasets, PROVEXPLAINER achieves up to 9.14% and 6.97% higher precision and recall, respectively, compared to SOTA GNN explainers. When combined with a general-purpose SOTA GNN explainer, PROVEXPLAINER shows a further improvement of 7.22% and 4.86% precision and recall over the best individual explainer.
- Abstract(参考訳): MLベースのセキュリティモデルの不透明さは、広く採用されるのを妨げ、その結果、その限定された妥当性と説明可能性のために透過的なセキュリティ操作を制限する。
本稿では,MLモデルの決定境界を代理DTの解釈可能な特徴空間に変換することで,セキュリティを意識した説明を提供するフレームワークであるPROVEXPLAINERを紹介する。
我々のPROVEXPLAINERフレームワークは主に、GNNを用いて構築されたセキュリティモデルの説明に重点を置いている。
PROVEXPLAINERは、公開およびプライベートシステムの前駆的データセットを利用して、広範なデータ分析から得られたセキュリティドメイン知識に基づいたグラフ構造的特徴を使用する。
PROVEXPLAINERの解釈可能な特徴空間はシステム証明問題空間に直接マッピングされ、人間の説明が理解できる。
セキュリティの状況は常に変化しているため、PROVEXPLAINERは野生で識別されるように、新しい説明機能で容易に拡張できる。
本稿では,プログラム分類や異常検出タスクのための著名なGNNアーキテクチャ(GAT,GraphSAGEなど)を考慮し,PROVEXPLAINERが現在のSOTA GNN説明器と相乗してドメイン固有の説明を行う方法を示す。
マルウェアとAPTのデータセットでは、SOTA GNNの説明者と比較して、PROVEXPLAINERは最大9.14%の精度と6.97%の精度を達成している。
汎用的なSOTA GNN説明器と組み合わせると、PROVEXPLAINERはさらに7.22%と4.86%の精度で改善され、最高の個人説明器よりもリコールされた。
関連論文リスト
- SE-SGformer: A Self-Explainable Signed Graph Transformer for Link Sign Prediction [8.820909397907274]
符号付きグラフニューラルネットワーク(SGNN)は、正と負のリンクが共存する現実の状況において、複雑なパターンを分析するのに有効であることが示されている。
SGNNモデルは説明可能性の低さに悩まされており、予測の背後にある理論的根拠を理解する必要のある重要なシナリオでの採用を制限する。
本稿では,高い予測精度を確保しつつ説明可能な情報を出力するSelf-Explainable Signed Graph Transformer (SE-SGformer) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-16T13:54:50Z) - Graph Neural Networks for Vulnerability Detection: A Counterfactual Explanation [41.831831628421675]
グラフニューラルネットワーク(GNN)は、脆弱性検出のための顕著なコード埋め込みアプローチとして登場した。
本稿では,GNNに基づく脆弱性検出のための新しいファクト・ファクト・アナライザCFExplainerを提案する。
論文 参考訳(メタデータ) (2024-04-24T06:52:53Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Explainable Spatio-Temporal Graph Neural Networks [16.313146933922752]
本稿では,STGNNを本質的に説明可能な形で拡張する,説明可能な時空間グラフニューラルネットワーク(STGNN)フレームワークを提案する。
本フレームワークは,STGエンコーダとデコーダとして位置情報融合層と統合時間グラフアテンションネットワークを統合した。
予測精度と説明可能性の指標から,STExplainerは最先端のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-10-26T04:47:28Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。