論文の概要: Detecting Complex Multi-step Attacks with Explainable Graph Neural Network
- arxiv url: http://arxiv.org/abs/2405.11335v1
- Date: Sat, 18 May 2024 16:47:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-21 18:18:48.612173
- Title: Detecting Complex Multi-step Attacks with Explainable Graph Neural Network
- Title(参考訳): 説明可能なグラフニューラルネットワークによる複雑多段階攻撃の検出
- Authors: Wei Liu, Peng Gao, Haotian Zhang, Ke Li, Weiyong Yang, Xingshen Wei, Shuji Wu,
- Abstract要約: 複雑な多段階攻撃は、多くの重要なインフラに大きな損傷を与えた。
このような攻撃を検出するため、グラフニューラルネットワークに基づく手法は有望な結果を示している。
しかし、既存のメソッドは、実際にデプロイする際にも、いくつかの課題に直面している。
- 参考スコア(独自算出の注目度): 18.435832266334895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complex multi-step attacks have caused significant damage to numerous critical infrastructures. To detect such attacks, graph neural network based methods have shown promising results by modeling the system's events as a graph. However, existing methods still face several challenges when deployed in practice. First, there is a lack of sufficient real attack data especially considering the large volume of normal data. Second, the modeling of event graphs is challenging due to their dynamic and heterogeneous nature. Third, the lack of explanation in learning models undermines the trustworthiness of such methods in production environments. To address the above challenges, in this paper, we propose an attack detection method, Trace2Vec. The approach first designs an erosion function to augment rare attack samples, and integrates them into the event graphs. Next, it models the event graphs via a continuous-time dynamic heterogeneous graph neural network. Finally, it employs the Monte Carlo tree search algorithm to identify events with greater contributions to the attack, thus enhancing the explainability of the detection result. We have implemented a prototype for Trace2Vec, and the experimental evaluations demonstrate its superior detection and explanation performance compared to existing methods.
- Abstract(参考訳): 複雑な多段階攻撃は、多くの重要なインフラに大きな損傷を与えた。
このような攻撃を検出するために、グラフニューラルネットワークに基づく手法は、システムのイベントをグラフとしてモデル化することで、有望な結果を示している。
しかし、既存のメソッドは、実際にデプロイする際にも、いくつかの課題に直面している。
第一に、特に大量の通常のデータを考えると、十分な実際の攻撃データが不足している。
第二に、イベントグラフのモデリングは、その動的で不均一な性質のために困難である。
第三に、学習モデルにおける説明の欠如は、生産環境におけるそのような手法の信頼性を損なう。
そこで本稿では,攻撃検出手法であるTrace2Vecを提案する。
このアプローチはまず、希少な攻撃サンプルを増やすための浸食関数を設計し、イベントグラフに統合する。
次に、連続時間動的異種グラフニューラルネットワークを介してイベントグラフをモデル化する。
最後に、モンテカルロ木探索アルゴリズムを用いて、攻撃により大きな貢献をした事象を識別し、検出結果の説明可能性を高める。
我々はTrace2Vecのプロトタイプを実装し、実験により既存の手法と比較して優れた検出性能と説明性能を示した。
関連論文リスト
- Extreme Value Modelling of Feature Residuals for Anomaly Detection in Dynamic Graphs [14.8066991252587]
グラフの時間的シーケンスにおける異常の検出は、トランスポートネットワークにおける事故の検出や、コンピュータネットワークにおけるサイバー攻撃といった分野に適用することができる。
既存の異常グラフ検出方法は、高い偽陽性率や可変サイズのグラフの扱いの難しさ、非自明な時間ダイナミクスなど、複数の制限に悩まされることがある。
そこで本稿では,時間的依存を時系列解析によって時間的依存を明示的にモデル化し,残差を用いて依存を除去する手法を提案する。
論文 参考訳(メタデータ) (2024-10-08T05:00:53Z) - Three Revisits to Node-Level Graph Anomaly Detection: Outliers, Message
Passing and Hyperbolic Neural Networks [9.708651460086916]
本稿では,教師なしノードレベルのグラフ異常検出タスクに対するデータセットとアプローチを再検討する。
まず,グラフデータセットにおいて,より多様なグラフベースの異常を発生させるアウトリーインジェクション手法を提案する。
第2に、メッセージパッシングを利用した手法を非使用者と比較し、予期せぬ性能低下を明らかにした。
論文 参考訳(メタデータ) (2024-03-06T19:42:34Z) - ADA-GAD: Anomaly-Denoised Autoencoders for Graph Anomaly Detection [84.0718034981805]
我々はAnomaly-Denoized Autoencoders for Graph Anomaly Detection (ADA-GAD)という新しいフレームワークを導入する。
第1段階では,異常レベルを低減したグラフを生成する学習自由な異常化拡張法を設計する。
次の段階では、デコーダは元のグラフで検出するために再訓練される。
論文 参考訳(メタデータ) (2023-12-22T09:02:01Z) - GADY: Unsupervised Anomaly Detection on Dynamic Graphs [18.1896489628884]
本稿では,従来の離散的手法の限界を突破する細粒度情報を取得するための連続的動的グラフモデルを提案する。
第2の課題として、負の相互作用を生成するためにジェネレーティブ・アドバイサル・ネットワーク(Generative Adversarial Networks)を開拓した。
提案したGADYは,3つの実世界のデータセットにおいて,従来の最先端手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2023-10-25T05:27:45Z) - DAGAD: Data Augmentation for Graph Anomaly Detection [57.92471847260541]
本稿では、属性グラフのための新しいデータ拡張ベースのグラフ異常検出(DAGAD)フレームワークを考案する。
3つのデータセットに関する一連の実験は、DAGADが様々な主に使用されるメトリクスに関して、10の最先端のベースライン検出器より優れていることを証明している。
論文 参考訳(メタデータ) (2022-10-18T11:28:21Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Adversarial Attacks on Graph Classification via Bayesian Optimisation [25.781404695921122]
本稿では,グラフ分類モデルに対する新たな最適化に基づく攻撃手法を提案する。
提案手法は, 摂動に関して, ブラックボックスであり, クエリ効率が高く, 相似である。
提案手法の有効性と柔軟性を幅広いグラフ分類タスクで実証的に検証する。
論文 参考訳(メタデータ) (2021-11-04T13:01:20Z) - Deep Fraud Detection on Non-attributed Graph [61.636677596161235]
グラフニューラルネットワーク(GNN)は不正検出に強い性能を示している。
ラベル付きデータは大規模な産業問題、特に不正検出には不十分である。
よりラベルのないデータを活用するための新しいグラフ事前学習戦略を提案する。
論文 参考訳(メタデータ) (2021-10-04T03:42:09Z) - Node Copying for Protection Against Graph Neural Network Topology
Attacks [24.81359861632328]
特に、グラフトポロジの破損は、グラフベースの学習アルゴリズムの性能を著しく低下させる可能性がある。
本稿では,ノードコピーを用いて,敵攻撃による分類の劣化を緩和するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-09T18:09:55Z) - Adversarial Attack on Community Detection by Hiding Individuals [68.76889102470203]
我々はブラックボックス攻撃に焦点をあて、ディープグラフコミュニティ検出モデルの検出からターゲット個人を隠すことを目的としている。
本稿では,制約付きグラフ生成器として動作するモジュールと,サロゲート型コミュニティ検出モデルとして動作するモジュールを交互に更新する反復学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-22T09:50:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。