論文の概要: ProvX: Generating Counterfactual-Driven Attack Explanations for Provenance-Based Detection
- arxiv url: http://arxiv.org/abs/2508.06073v1
- Date: Fri, 08 Aug 2025 07:12:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.113992
- Title: ProvX: Generating Counterfactual-Driven Attack Explanations for Provenance-Based Detection
- Title(参考訳): ProvX: 異常検出のための非現実的攻撃説明を生成する
- Authors: Weiheng Wu, Wei Qiao, Teng Li, Yebo Feng, Zhuo Ma, Jianfeng Ma, Yang Liu,
- Abstract要約: Provenance graphベースの侵入検知システムは、Advanced Persistent Threatに対抗するためにホスト上にデプロイされる。
グラフニューラルネットワークを使ってこれらの脅威を検出することは、研究の焦点となり、例外的なパフォーマンスを示している。
本稿では,プロヴァンスグラフ上にGNNベースのセキュリティモデルを記述するための効果的な説明フレームワークであるProvXを提案する。
- 参考スコア(独自算出の注目度): 14.868358820809215
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Provenance graph-based intrusion detection systems are deployed on hosts to defend against increasingly severe Advanced Persistent Threat. Using Graph Neural Networks to detect these threats has become a research focus and has demonstrated exceptional performance. However, the widespread adoption of GNN-based security models is limited by their inherent black-box nature, as they fail to provide security analysts with any verifiable explanations for model predictions or any evidence regarding the model's judgment in relation to real-world attacks. To address this challenge, we propose ProvX, an effective explanation framework for exlaining GNN-based security models on provenance graphs. ProvX introduces counterfactual explanation logic, seeking the minimal structural subset within a graph predicted as malicious that, when perturbed, can subvert the model's original prediction. We innovatively transform the discrete search problem of finding this critical subgraph into a continuous optimization task guided by a dual objective of prediction flipping and distance minimization. Furthermore, a Staged Solidification strategy is incorporated to enhance the precision and stability of the explanations. We conducted extensive evaluations of ProvX on authoritative datasets. The experimental results demonstrate that ProvX can locate critical graph structures that are highly relevant to real-world attacks and achieves an average explanation necessity of 51.59\%, with these metrics outperforming current SOTA explainers. Furthermore, we explore and provide a preliminary validation of a closed-loop Detection-Explanation-Feedback enhancement framework, demonstrating through experiments that the explanation results from ProvX can guide model optimization, effectively enhancing its robustness against adversarial attacks.
- Abstract(参考訳): Provenance graphベースの侵入検知システムは、ますます深刻なAdvanced Persistent Threatに対して防御するためにホスト上に展開される。
グラフニューラルネットワークを使ってこれらの脅威を検出することは、研究の焦点となり、例外的なパフォーマンスを示している。
しかしながら、GNNベースのセキュリティモデルの普及は、モデル予測に関する検証可能な説明や、実際の攻撃に関するモデルの判断に関する証拠をセキュリティアナリストに提供することに失敗するため、固有のブラックボックスの性質によって制限されている。
この課題に対処するため、我々はプロヴァンスグラフ上でGNNベースのセキュリティモデルを記述するための効果的な説明フレームワークであるProvXを提案する。
ProvXは反実的説明論理を導入し、グラフ内の最小限の構造的部分集合を悪意あると予測し、摂動するとモデルの本来の予測を覆すことができるようにしている。
我々は、この臨界部分グラフを見つけるための離散探索問題を、予測フリップと距離最小化という2つの目的によって導かれる連続最適化タスクに革新的に変換する。
さらに、説明の精度と安定性を高めるため、段階的固化戦略が組み込まれている。
信頼性データセットを用いたProvXの広範囲な評価を行った。
実験結果から,ProvXは実世界の攻撃に強く関係する重要なグラフ構造を見つけ出すことができ,平均説明の必要性は51.59\%であり,これらの指標は現在のSOTA説明よりも優れていることが示された。
さらに, ProvXによる説明結果がモデル最適化を導出し, 敵攻撃に対する堅牢性を効果的に向上することを示す実験を通じて, クローズドループ検出・説明・フィードバック強化フレームワークの予備検証を行った。
関連論文リスト
- Explainer-guided Targeted Adversarial Attacks against Binary Code Similarity Detection Models [12.524811181751577]
我々は,BCSDモデルに対する敵攻撃に対する新たな最適化を提案する。
特に,攻撃目標は,モデル予測を特定の範囲に制限することである。
我々の攻撃は、モデル決定境界の解釈において、ブラックボックス、モデルに依存しない説明器の優れた能力を活用する。
論文 参考訳(メタデータ) (2025-06-05T08:29:19Z) - How Explanations Leak the Decision Logic: Stealing Graph Neural Networks via Explanation Alignment [9.329315232799814]
グラフニューラルネットワーク(GNN)は、薬物発見や財務分析などの分野において、グラフ構造化データを解析するための重要なツールとなっている。
説明可能なGNNの最近の進歩は、予測に影響を与える重要な部分グラフを明らかにすることで、このニーズに対処している。
本稿では,そのような説明が,モデル盗難に活用可能な決定論理を漏洩させる可能性について検討する。
論文 参考訳(メタデータ) (2025-06-03T17:11:05Z) - ATOM: A Framework of Detecting Query-Based Model Extraction Attacks for Graph Neural Networks [18.488168353080464]
グラフニューラルネットワーク(GNN)は、グラフベースの機械学習・アズ・ア・サービス(GML)プラットフォームで注目を集めているが、グラフベースのモデル抽出攻撃(MEAs)に弱いままである。
GNNに適した新しいリアルタイムMEA検出フレームワークであるATOMを提案する。
ATOMはシーケンシャルモデリングと強化学習を統合して、進化する攻撃パターンを動的に検出し、$k$coreの埋め込みを利用して構造特性をキャプチャし、検出精度を向上させる。
論文 参考訳(メタデータ) (2025-03-20T20:25:32Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Model X-ray:Detecting Backdoored Models via Decision Boundary [62.675297418960355]
バックドア攻撃はディープニューラルネットワーク(DNN)に重大な脆弱性をもたらす
図形化された2次元(2次元)決定境界の解析に基づく新しいバックドア検出手法であるモデルX線を提案する。
提案手法は,クリーンサンプルが支配する意思決定領域とラベル分布の集中度に着目した2つの戦略を含む。
論文 参考訳(メタデータ) (2024-02-27T12:42:07Z) - On provable privacy vulnerabilities of graph representations [34.45433384694758]
グラフ表現学習(GRL)は複雑なネットワーク構造から洞察を抽出するために重要である。
また、これらの表現にプライバシー上の脆弱性があるため、セキュリティ上の懸念も高まる。
本稿では,エッジ再構成攻撃により,高感度なトポロジ情報を推定できるグラフニューラルモデルの構造的脆弱性について検討する。
論文 参考訳(メタデータ) (2024-02-06T14:26:22Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - IDEA: Invariant Defense for Graph Adversarial Robustness [60.0126873387533]
敵攻撃に対する不変因果判定法(IDEA)を提案する。
我々は,情報理論の観点から,ノードと構造に基づく分散目標を導出する。
実験によると、IDEAは5つのデータセットすべてに対する5つの攻撃に対して、最先端の防御性能を達成している。
論文 参考訳(メタデータ) (2023-05-25T07:16:00Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。