論文の概要: Illuminati: Towards Explaining Graph Neural Networks for Cybersecurity
Analysis
- arxiv url: http://arxiv.org/abs/2303.14836v1
- Date: Sun, 26 Mar 2023 22:20:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 17:23:50.297268
- Title: Illuminati: Towards Explaining Graph Neural Networks for Cybersecurity
Analysis
- Title(参考訳): Illuminati: サイバーセキュリティ分析のためのグラフニューラルネットワークの解説
- Authors: Haoyu He, Yuede Ji, H. Howie Huang
- Abstract要約: 我々は,GNNモデルを用いたサイバーセキュリティアプリケーションのための包括的かつ正確な説明フレームワークであるIlluminatiを設計,実装した。
グラフと事前トレーニングされたGNNモデルによって、Illuminatiは予測に寄与する重要なノード、エッジ、属性を識別できる。
実験により、イルミナティは最先端の手法よりも正確な説明結果が得られることが示された。
- 参考スコア(独自算出の注目度): 4.988898367111902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have been utilized to create multi-layer graph
models for a number of cybersecurity applications from fraud detection to
software vulnerability analysis. Unfortunately, like traditional neural
networks, GNNs also suffer from a lack of transparency, that is, it is
challenging to interpret the model predictions. Prior works focused on specific
factor explanations for a GNN model. In this work, we have designed and
implemented Illuminati, a comprehensive and accurate explanation framework for
cybersecurity applications using GNN models. Given a graph and a pre-trained
GNN model, Illuminati is able to identify the important nodes, edges, and
attributes that are contributing to the prediction while requiring no prior
knowledge of GNN models. We evaluate Illuminati in two cybersecurity
applications, i.e., code vulnerability detection and smart contract
vulnerability detection. The experiments show that Illuminati achieves more
accurate explanation results than state-of-the-art methods, specifically, 87.6%
of subgraphs identified by Illuminati are able to retain their original
prediction, an improvement of 10.3% over others at 77.3%. Furthermore, the
explanation of Illuminati can be easily understood by the domain experts,
suggesting the significant usefulness for the development of cybersecurity
applications.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、不正検出からソフトウェア脆弱性解析まで、多くのサイバーセキュリティアプリケーションのための多層グラフモデルの作成に利用されている。
残念ながら、従来のニューラルネットワークと同様に、GNNも透明性の欠如に悩まされている。
以前の研究は、GNNモデルの特定の要因の説明に焦点を当てていた。
本研究では,GNNモデルを用いたサイバーセキュリティアプリケーションのための包括的かつ正確な説明フレームワークであるIlluminatiを設計,実装した。
グラフと事前訓練されたGNNモデルによって、IlluminatiはGNNモデルの事前知識を必要とせず、予測に寄与する重要なノード、エッジ、属性を特定できる。
Illuminatiを2つのサイバーセキュリティアプリケーション、すなわちコード脆弱性検出とスマートコントラクト脆弱性検出で評価する。
実験の結果、illuminatiは最先端の手法よりも正確な説明結果を得ることができ、illuminatiが特定したサブグラフの87.6%は元の予測を保ち、77.3%で他のグラフよりも10.3%向上した。
さらに、Illuminatiの説明はドメインの専門家によって容易に理解でき、サイバーセキュリティアプリケーションの開発に重要な有用性を示している。
関連論文リスト
- Graph Neural Networks for Vulnerability Detection: A Counterfactual Explanation [41.831831628421675]
グラフニューラルネットワーク(GNN)は、脆弱性検出のための顕著なコード埋め込みアプローチとして登場した。
本稿では,GNNに基づく脆弱性検出のための新しいファクト・ファクト・アナライザCFExplainerを提案する。
論文 参考訳(メタデータ) (2024-04-24T06:52:53Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - GNNBleed: Inference Attacks to Unveil Private Edges in Graphs with
Realistic Access to GNN Models [3.0509197593879844]
本稿では,敵がブラックボックスGNNモデルアクセスを持つ状況におけるエッジプライバシについて検討する。
我々は,GNNのメッセージパッシング機構に基づく一連のプライバシ攻撃を導入する。
論文 参考訳(メタデータ) (2023-11-03T20:26:03Z) - Detection, Explanation and Filtering of Cyber Attacks Combining Symbolic
and Sub-Symbolic Methods [0.0]
我々は、ドメイン知識を取り入れたサイバーセキュリティの分野で、象徴的およびサブシンボル的手法の組み合わせを検討している。
提案手法は,様々なシナリオに対するアラートの直感的な説明を生成する。
説明はアラートに関する深い洞察を提供するだけでなく、偽陽性の警告を66%、忠実度メトリックを含めると93%減少させる。
論文 参考訳(メタデータ) (2022-12-23T09:03:51Z) - Trustworthy Graph Neural Networks: Aspects, Methods and Trends [115.84291569988748]
グラフニューラルネットワーク(GNN)は,さまざまな実世界のシナリオに対して,有能なグラフ学習手法として登場した。
パフォーマンス指向のGNNは、敵の攻撃に対する脆弱性のような潜在的な副作用を示す。
こうした意図しない害を避けるためには、信頼度に特徴付けられる有能なGNNを構築する必要がある。
論文 参考訳(メタデータ) (2022-05-16T02:21:09Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。