論文の概要: Interpreting GNN-based IDS Detections Using Provenance Graph Structural
Features
- arxiv url: http://arxiv.org/abs/2306.00934v1
- Date: Thu, 1 Jun 2023 17:36:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 14:08:31.752880
- Title: Interpreting GNN-based IDS Detections Using Provenance Graph Structural
Features
- Title(参考訳): Provenance Graph構造特徴を用いたGNNによるIDS検出の解釈
- Authors: Kunal Mukherjee, Joshua Wiedemeier, Tianhao Wang, Muhyun Kim, Feng
Chen, Murat Kantarcioglu and Kangkook Jee
- Abstract要約: 本稿では,抽象的なGNN決定境界を解釈可能な特徴空間に投影するフレームワークであるPROVEXPLAINERを提案する。
我々はまず,決定木(DT)などの簡易かつ説明可能なモデルを用いて,GNNベースのセキュリティモデルの意思決定プロセスを再現する。
我々のグラフ構造機能は、システム前駆領域における問題空間のアクションと密接に結びついているので、検出結果を記述的、人間の言語で説明することができる。
- 参考スコア(独自算出の注目度): 15.138765307403874
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The black-box nature of complex Neural Network (NN)-based models has hindered
their widespread adoption in security domains due to the lack of logical
explanations and actionable follow-ups for their predictions. To enhance the
transparency and accountability of Graph Neural Network (GNN) security models
used in system provenance analysis, we propose PROVEXPLAINER, a framework for
projecting abstract GNN decision boundaries onto interpretable feature spaces.
We first replicate the decision-making process of GNNbased security models
using simpler and explainable models such as Decision Trees (DTs). To maximize
the accuracy and fidelity of the surrogate models, we propose novel graph
structural features founded on classical graph theory and enhanced by extensive
data study with security domain knowledge. Our graph structural features are
closely tied to problem-space actions in the system provenance domain, which
allows the detection results to be explained in descriptive, human language.
PROVEXPLAINER allowed simple DT models to achieve 95% fidelity to the GNN on
program classification tasks with general graph structural features, and 99%
fidelity on malware detection tasks with a task-specific feature package
tailored for direct interpretation. The explanations for malware classification
are demonstrated with case studies of five real-world malware samples across
three malware families.
- Abstract(参考訳): 複雑なニューラルネットワーク(NN)ベースのモデルにおけるブラックボックスの性質は、論理的説明の欠如と予測に対する実用的なフォローアップのために、セキュリティドメインへの普及を妨げている。
システム証明分析で使用されるグラフニューラルネットワーク(GNN)のセキュリティモデルの透明性と説明責任を高めるために,抽象的なGNN決定境界を解釈可能な特徴空間に投影するフレームワークであるPROVEXPLAINERを提案する。
まず,決定木(DT)などの簡易かつ説明可能なモデルを用いて,GNNベースのセキュリティモデルの意思決定プロセスを再現する。
本研究では,サロゲートモデルの精度と忠実性を最大化するために,古典グラフ理論に基づく新しいグラフ構造特徴を提案し,セキュリティ領域知識を用いた広範なデータ研究により拡張する。
グラフの構造的特徴は,システムプロヴァンス領域における問題空間的動作と密接に関連しており,記述的,人間言語で検出結果を説明することができる。
PROVEXPLAINERは、一般的なグラフ構造を持つプログラム分類タスクにおいて、単純なDTモデルで95%の忠実性を達成し、直接解釈に適したタスク固有の機能パッケージを備えたマルウェア検出タスクでは99%の忠実性を達成した。
マルウェア分類の説明は、3つのマルウェアファミリーにわたる5つの現実世界のマルウェアサンプルのケーススタディで実証された。
関連論文リスト
- SE-SGformer: A Self-Explainable Signed Graph Transformer for Link Sign Prediction [8.820909397907274]
符号付きグラフニューラルネットワーク(SGNN)は、正と負のリンクが共存する現実の状況において、複雑なパターンを分析するのに有効であることが示されている。
SGNNモデルは説明可能性の低さに悩まされており、予測の背後にある理論的根拠を理解する必要のある重要なシナリオでの採用を制限する。
本稿では,高い予測精度を確保しつつ説明可能な情報を出力するSelf-Explainable Signed Graph Transformer (SE-SGformer) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-16T13:54:50Z) - Graph Neural Networks for Vulnerability Detection: A Counterfactual Explanation [41.831831628421675]
グラフニューラルネットワーク(GNN)は、脆弱性検出のための顕著なコード埋め込みアプローチとして登場した。
本稿では,GNNに基づく脆弱性検出のための新しいファクト・ファクト・アナライザCFExplainerを提案する。
論文 参考訳(メタデータ) (2024-04-24T06:52:53Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Explainable Spatio-Temporal Graph Neural Networks [16.313146933922752]
本稿では,STGNNを本質的に説明可能な形で拡張する,説明可能な時空間グラフニューラルネットワーク(STGNN)フレームワークを提案する。
本フレームワークは,STGエンコーダとデコーダとして位置情報融合層と統合時間グラフアテンションネットワークを統合した。
予測精度と説明可能性の指標から,STExplainerは最先端のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-10-26T04:47:28Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。