論文の概要: Graph-Level Label-Only Membership Inference Attack against Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2503.19070v2
- Date: Wed, 26 Mar 2025 06:48:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 13:21:49.515355
- Title: Graph-Level Label-Only Membership Inference Attack against Graph Neural Networks
- Title(参考訳): グラフレベルラベルのみによるグラフニューラルネットワークに対するメンバーシップ推論攻撃
- Authors: Jiazhu Dai, Yubing Lu,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ分類タスクのメンバシップ推論攻撃(MIA)に対して脆弱である。
GLO-MIA(Graph-level Label-Only Membership Inference Attack)を提案する。
GLO-MIAは最大0.825の攻撃精度を達成し、ベースライン処理を8.5%上回り、確率ベースMIAの性能と密に一致させる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Graph neural networks (GNNs) are widely used for graph-structured data but are vulnerable to membership inference attacks (MIAs) in graph classification tasks, which determine if a graph was part of the training dataset, potentially causing data leakage. Existing MIAs rely on prediction probability vectors, but they become ineffective when only prediction labels are available. We propose a Graph-level Label-Only Membership Inference Attack (GLO-MIA), which is based on the intuition that the target model's predictions on training data are more stable than those on testing data. GLO-MIA generates a set of perturbed graphs for target graph by adding perturbations to its effective features and queries the target model with the perturbed graphs to get their prediction labels, which are then used to calculate robustness score of the target graph. Finally, by comparing the robustness score with a predefined threshold, the membership of the target graph can be inferred correctly with high probability. Our evaluation on three datasets and four GNN models shows that GLO-MIA achieves an attack accuracy of up to 0.825, outperforming baseline work by 8.5% and closely matching the performance of probability-based MIAs, even with only prediction labels.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く使用されているが、グラフ分類タスクのメンバシップ推論攻撃(MIA)に対して脆弱である。
既存のMIAは予測確率ベクトルに依存しているが、予測ラベルのみが利用可能になると効果が低下する。
学習データに対する対象モデルの予測がテストデータよりも安定しているという直感に基づくグラフレベルラベルオンリーメンバーシップ推論攻撃(GLO-MIA)を提案する。
GLO-MIAは、その有効な特徴に摂動を加えてターゲットグラフに対する摂動グラフの集合を生成し、その摂動グラフを用いてターゲットモデルをクエリし、予測ラベルを取得し、ターゲットグラフのロバスト性スコアを計算する。
最後に、ロバスト性スコアを予め定義された閾値と比較することにより、ターゲットグラフのメンバシップを高い確率で正確に推測することができる。
3つのデータセットと4つのGNNモデルを用いて評価したところ、GLO-MIAは最大0.825の攻撃精度を達成でき、ベースライン作業は8.5%向上し、予測ラベルのみでも確率ベースMIAの性能と密に一致している。
関連論文リスト
- Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - Deep Generative Models for Subgraph Prediction [10.56335881963895]
本稿では,深層グラフ学習のための新しい課題として,サブグラフクエリを提案する。
サブグラフクエリは、観測されたサブグラフで表される証拠に基づいて、ターゲットサブグラフのコンポーネントを共同で予測する。
我々は,確率論的深部グラフ生成モデルを用いて,サブグラフクエリに回答する。
論文 参考訳(メタデータ) (2024-08-07T19:24:02Z) - Towards Self-Interpretable Graph-Level Anomaly Detection [73.1152604947837]
グラフレベルの異常検出(GLAD)は、コレクションの大多数と比べて顕著な相違を示すグラフを識別することを目的としている。
本稿では,異常なグラフを検出し,同時に情報的説明を生成する自己解釈グラフaNomaly dETectionモデル(SIGNET)を提案する。
論文 参考訳(メタデータ) (2023-10-25T10:10:07Z) - Uncertainty Quantification over Graph with Conformalized Graph Neural
Networks [52.20904874696597]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに基づく強力な機械学習予測モデルである。
GNNには厳密な不確実性見積が欠如しており、エラーのコストが重要な設定での信頼性の高いデプロイメントが制限されている。
本稿では,共形予測(CP)をグラフベースモデルに拡張した共形GNN(CF-GNN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T21:38:23Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Label-Only Membership Inference Attack against Node-Level Graph Neural
Networks [30.137860266059004]
グラフニューラルネットワーク(GNN)は、メンバーシップ推論攻撃(MIA)に対して脆弱である
本稿では,GNNのフレキシブル予測機構を利用して,ノード分類のためのラベルのみのMIAを提案する。
攻撃手法は,ほとんどのデータセットやGNNモデルに対して,AUC(Area Under the Curve)の精度,精度,面積の約60%を達成している。
論文 参考訳(メタデータ) (2022-07-27T19:46:26Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Handling Missing Data with Graph Representation Learning [62.59831675688714]
特徴量計算とラベル予測のためのグラフベースのフレームワークであるGRAPEを提案する。
GRAPEでは,特徴計算をエッジレベル予測タスク,ラベル予測をノードレベル予測タスクとして定式化する。
9つのベンチマークデータセットによる実験結果から、GRAPEは計算タスクの平均絶対誤差を20%低く、ラベル予測タスクを10%低くすることがわかった。
論文 参考訳(メタデータ) (2020-10-30T17:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。