論文の概要: Coca: Improving and Explaining Graph Neural Network-Based Vulnerability
Detection Systems
- arxiv url: http://arxiv.org/abs/2401.14886v1
- Date: Fri, 26 Jan 2024 14:14:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 15:05:54.957721
- Title: Coca: Improving and Explaining Graph Neural Network-Based Vulnerability
Detection Systems
- Title(参考訳): Coca: グラフニューラルネットワークによる脆弱性検出システムの改良と説明
- Authors: Sicong Cao, Xiaobing Sun, Xiaoxue Wu, David Lo, Lili Bo, Bin Li, Wei
Liu
- Abstract要約: グラフニューラルネットワーク(GNN)ベースの脆弱性検出システムは大きな成功を収めている。
説明責任の欠如は、セキュリティ関連ドメインにブラックボックスモデルをデプロイする上で重要な課題となる。
我々は,既存のGNNベースの脆弱性検出モデルの堅牢性向上を目的とした,一般的なフレームワークであるCocaを提案する。
- 参考スコア(独自算出の注目度): 16.005996517940964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, Graph Neural Network (GNN)-based vulnerability detection systems
have achieved remarkable success. However, the lack of explainability poses a
critical challenge to deploy black-box models in security-related domains. For
this reason, several approaches have been proposed to explain the decision
logic of the detection model by providing a set of crucial statements
positively contributing to its predictions. Unfortunately, due to the
weakly-robust detection models and suboptimal explanation strategy, they have
the danger of revealing spurious correlations and redundancy issue.
In this paper, we propose Coca, a general framework aiming to 1) enhance the
robustness of existing GNN-based vulnerability detection models to avoid
spurious explanations; and 2) provide both concise and effective explanations
to reason about the detected vulnerabilities. \sysname consists of two core
parts referred to as Trainer and Explainer. The former aims to train a
detection model which is robust to random perturbation based on combinatorial
contrastive learning, while the latter builds an explainer to derive crucial
code statements that are most decisive to the detected vulnerability via
dual-view causal inference as explanations. We apply Coca over three typical
GNN-based vulnerability detectors. Experimental results show that Coca can
effectively mitigate the spurious correlation issue, and provide more useful
high-quality explanations.
- Abstract(参考訳): 近年,グラフニューラルネットワーク(GNN)に基づく脆弱性検出システムが大きな成功を収めている。
しかし、説明可能性の欠如は、セキュリティ関連のドメインにブラックボックスモデルをデプロイする上で重要な課題となる。
このため,検出モデルの決定論理を,その予測に肯定的に寄与する重要な文の集合を提供することによって説明するためのいくつかのアプローチが提案されている。
残念なことに、弱い破壊検出モデルと準最適説明戦略のため、それらは急激な相関と冗長性の問題を明らかにする危険がある。
本稿では,cocaという汎用フレームワークを提案する。
1)既存のGNNベースの脆弱性検出モデルの堅牢性を高めて、素早い説明を避ける。
2) 検出された脆弱性を推論するための簡潔かつ効果的な説明を提供する。
\sysnameはTrainerとExplainerと呼ばれる2つのコア部分で構成される。
前者は組合せの対比学習に基づくランダムな摂動にロバストな検出モデルを訓練することを目的としており、後者は二重視点因果推論を説明として検出された脆弱性に最も決定的な重要なコードステートメントを導出するための説明器を構築している。
典型的な3つのGNNベースの脆弱性検知器にCocaを適用する。
実験結果から,コカはスプリアス相関問題を効果的に緩和し,より有用な高品質な説明を提供することができた。
関連論文リスト
- Graph Neural Networks for Vulnerability Detection: A Counterfactual Explanation [41.831831628421675]
グラフニューラルネットワーク(GNN)は、脆弱性検出のための顕著なコード埋め込みアプローチとして登場した。
本稿では,GNNに基づく脆弱性検出のための新しいファクト・ファクト・アナライザCFExplainerを提案する。
論文 参考訳(メタデータ) (2024-04-24T06:52:53Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Efficient Network Representation for GNN-based Intrusion Detection [2.321323878201932]
過去数十年間、深刻な経済とプライバシーの被害を受けたサイバー攻撃の数が増加している。
本稿では,侵入検知タスクのトポロジ情報の提供を目的とした,フローのグラフとしての新しいネットワーク表現を提案する。
提案するグラフ構造を利用したグラフニューラルネットワーク(GNN)に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-11T16:10:12Z) - The Devil is in the Conflict: Disentangled Information Graph Neural
Networks for Fraud Detection [17.254383007779616]
性能劣化は主にトポロジと属性の矛盾に起因すると我々は主張する。
注意機構を用いて2つの視点を適応的に融合する簡易かつ効果的な手法を提案する。
我々のモデルは、実世界の不正検出データセットで最先端のベースラインを大幅に上回ることができる。
論文 参考訳(メタデータ) (2022-10-22T08:21:49Z) - On Consistency in Graph Neural Network Interpretation [34.25952902469481]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案されているが、その多くは最小の部分グラフを探索することによってこのタスクを定式化している。
埋め込みの整列による簡易かつ効果的な対策を提案する。
論文 参考訳(メタデータ) (2022-05-27T02:58:07Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - No Need to Know Physics: Resilience of Process-based Model-free Anomaly
Detection for Industrial Control Systems [95.54151664013011]
本稿では,システムの物理的特性に反する逆スプーフ信号を生成するための新しい枠組みを提案する。
トップセキュリティカンファレンスで公表された4つの異常検知器を分析した。
論文 参考訳(メタデータ) (2020-12-07T11:02:44Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。