論文の概要: How Explanations Leak the Decision Logic: Stealing Graph Neural Networks via Explanation Alignment
- arxiv url: http://arxiv.org/abs/2506.03087v1
- Date: Tue, 03 Jun 2025 17:11:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.882302
- Title: How Explanations Leak the Decision Logic: Stealing Graph Neural Networks via Explanation Alignment
- Title(参考訳): 説明が決定論理を破る方法:説明アライメントによるグラフニューラルネットワークのステアリング
- Authors: Bin Ma, Yuyuan Feng, Minhua Lin, Enyan Dai,
- Abstract要約: グラフニューラルネットワーク(GNN)は、薬物発見や財務分析などの分野において、グラフ構造化データを解析するための重要なツールとなっている。
説明可能なGNNの最近の進歩は、予測に影響を与える重要な部分グラフを明らかにすることで、このニーズに対処している。
本稿では,そのような説明が,モデル盗難に活用可能な決定論理を漏洩させる可能性について検討する。
- 参考スコア(独自算出の注目度): 9.329315232799814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have become essential tools for analyzing graph-structured data in domains such as drug discovery and financial analysis, leading to growing demands for model transparency. Recent advances in explainable GNNs have addressed this need by revealing important subgraphs that influence predictions, but these explanation mechanisms may inadvertently expose models to security risks. This paper investigates how such explanations potentially leak critical decision logic that can be exploited for model stealing. We propose {\method}, a novel stealing framework that integrates explanation alignment for capturing decision logic with guided data augmentation for efficient training under limited queries, enabling effective replication of both the predictive behavior and underlying reasoning patterns of target models. Experiments on molecular graph datasets demonstrate that our approach shows advantages over conventional methods in model stealing. This work highlights important security considerations for the deployment of explainable GNNs in sensitive domains and suggests the need for protective measures against explanation-based attacks. Our code is available at https://github.com/beanmah/EGSteal.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、薬物発見や財務分析などの領域におけるグラフ構造化データを分析するための重要なツールとなり、モデルの透明性に対する要求が高まる。
説明可能なGNNの最近の進歩は、予測に影響を与える重要なサブグラフを明らかにすることで、このニーズに対処している。
本稿では,そのような説明が,モデル盗難に活用可能な決定論理を漏洩させる可能性について検討する。
本稿では,決定論理を抽出するための説明アライメントと,限定クエリによる効率的なトレーニングのためのガイド付きデータ拡張を統合した,新たなステルスフレームワークである {\methodを提案し,予測行動と対象モデルの基本的な推論パターンの両方を効果的に再現する。
分子グラフデータセットを用いた実験により,本手法は従来のモデルステルス法よりも有利であることが示された。
この研究は、説明可能なGNNを機密ドメインに展開するための重要なセキュリティ上の配慮を強調し、説明に基づく攻撃に対する保護措置の必要性を示唆している。
私たちのコードはhttps://github.com/beanmah/EGSteal.comから入手可能です。
関連論文リスト
- Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - Graph Neural Networks for Vulnerability Detection: A Counterfactual Explanation [41.831831628421675]
グラフニューラルネットワーク(GNN)は、脆弱性検出のための顕著なコード埋め込みアプローチとして登場した。
本稿では,GNNに基づく脆弱性検出のための新しいファクト・ファクト・アナライザCFExplainerを提案する。
論文 参考訳(メタデータ) (2024-04-24T06:52:53Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Interpreting GNN-based IDS Detections Using Provenance Graph Structural Features [15.256262257064982]
ProVEXPLAINERは,解釈可能なサロゲートモデルを用いて,インスタンスレベルのセキュリティ対応の説明を提供するフレームワークである。
マルウェアとAPTデータセットでは、PROVEXPLAINERは29%/27%/25%高いフィディリティ+、精度とリコール、それぞれ12%低いフィディリティを達成している。
論文 参考訳(メタデータ) (2023-06-01T17:36:24Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。