論文の概要: Interpreting GNN-based IDS Detections Using Provenance Graph Structural
Features
- arxiv url: http://arxiv.org/abs/2306.00934v2
- Date: Tue, 6 Jun 2023 22:42:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 17:57:38.344758
- Title: Interpreting GNN-based IDS Detections Using Provenance Graph Structural
Features
- Title(参考訳): Provenance Graph構造特徴を用いたGNNによるIDS検出の解釈
- Authors: Kunal Mukherjee, Joshua Wiedemeier, Tianhao Wang, Muhyun Kim, Feng
Chen, Murat Kantarcioglu and Kangkook Jee
- Abstract要約: 本稿では,抽象的なGNN決定境界を解釈可能な特徴空間に投影するフレームワークであるPROVEXPLAINERを提案する。
我々はまず,決定木(DT)などの簡易かつ説明可能なモデルを用いて,GNNベースのセキュリティモデルの意思決定プロセスを再現する。
我々のグラフ構造機能は、システム前駆領域における問題空間のアクションと密接に結びついているので、検出結果を記述的、人間の言語で説明することができる。
- 参考スコア(独自算出の注目度): 15.138765307403874
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The black-box nature of complex Neural Network (NN)-based models has hindered
their widespread adoption in security domains due to the lack of logical
explanations and actionable follow-ups for their predictions. To enhance the
transparency and accountability of Graph Neural Network (GNN) security models
used in system provenance analysis, we propose PROVEXPLAINER, a framework for
projecting abstract GNN decision boundaries onto interpretable feature spaces.
We first replicate the decision-making process of GNNbased security models
using simpler and explainable models such as Decision Trees (DTs). To maximize
the accuracy and fidelity of the surrogate models, we propose novel graph
structural features founded on classical graph theory and enhanced by extensive
data study with security domain knowledge. Our graph structural features are
closely tied to problem-space actions in the system provenance domain, which
allows the detection results to be explained in descriptive, human language.
PROVEXPLAINER allowed simple DT models to achieve 95% fidelity to the GNN on
program classification tasks with general graph structural features, and 99%
fidelity on malware detection tasks with a task-specific feature package
tailored for direct interpretation. The explanations for malware classification
are demonstrated with case studies of five real-world malware samples across
three malware families.
- Abstract(参考訳): 複雑なニューラルネットワーク(NN)ベースのモデルにおけるブラックボックスの性質は、論理的説明の欠如と予測に対する実用的なフォローアップのために、セキュリティドメインへの普及を妨げている。
システム証明分析で使用されるグラフニューラルネットワーク(GNN)のセキュリティモデルの透明性と説明責任を高めるために,抽象的なGNN決定境界を解釈可能な特徴空間に投影するフレームワークであるPROVEXPLAINERを提案する。
まず,決定木(DT)などの簡易かつ説明可能なモデルを用いて,GNNベースのセキュリティモデルの意思決定プロセスを再現する。
本研究では,サロゲートモデルの精度と忠実性を最大化するために,古典グラフ理論に基づく新しいグラフ構造特徴を提案し,セキュリティ領域知識を用いた広範なデータ研究により拡張する。
グラフの構造的特徴は,システムプロヴァンス領域における問題空間的動作と密接に関連しており,記述的,人間言語で検出結果を説明することができる。
PROVEXPLAINERは、一般的なグラフ構造を持つプログラム分類タスクにおいて、単純なDTモデルで95%の忠実性を達成し、直接解釈に適したタスク固有の機能パッケージを備えたマルウェア検出タスクでは99%の忠実性を達成した。
マルウェア分類の説明は、3つのマルウェアファミリーにわたる5つの現実世界のマルウェアサンプルのケーススタディで実証された。
関連論文リスト
- Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Towards Robust Fidelity for Evaluating Explainability of Graph Neural
Networks [33.738560550044646]
グラフニューラルネットワーク(GNN)は、グラフノード間のメッセージパッシングを介してグラフィカルデータの依存性構造を利用するニューラルネットワークである。
GNN説明可能性の研究における主な課題は、これらの説明機能の性能を評価するための忠実度尺度を提供することである。
本稿では,この基礎的課題について考察し,その限界を浮き彫りにする。
論文 参考訳(メタデータ) (2023-10-03T06:25:14Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Anomal-E: A Self-Supervised Network Intrusion Detection System based on
Graph Neural Networks [0.0]
本稿では,自己教師型ネットワーク侵入と異常検出のためのグラフニューラルネットワーク(GNN)の応用について検討する。
GNNは、グラフ構造を学習に組み込んだグラフベースのデータのためのディープラーニングアプローチである。
本稿では, エッジ特徴とグラフトポロジ構造を利用したGNNによる侵入・異常検出手法であるAnomal-Eを提案する。
論文 参考訳(メタデータ) (2022-07-14T10:59:39Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - Unveiling the potential of Graph Neural Networks for robust Intrusion
Detection [2.21481607673149]
本稿では,グラフとして構造化された攻撃の流れパターンを学習するための新しいグラフニューラルネットワーク(GNN)モデルを提案する。
我々のモデルは従来の実験と同等の精度を維持することができる一方、最先端のML技術は敵攻撃下で50%の精度(F1スコア)を低下させる。
論文 参考訳(メタデータ) (2021-07-30T16:56:39Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。