論文の概要: Node-Level Membership Inference Attacks Against Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2102.05429v1
- Date: Wed, 10 Feb 2021 13:51:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-12 01:48:23.582571
- Title: Node-Level Membership Inference Attacks Against Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークに対するノードレベルメンバーシップ推論攻撃
- Authors: Xinlei He and Rui Wen and Yixin Wu and Michael Backes and Yun Shen and
Yang Zhang
- Abstract要約: 新しい機械学習(ML)モデル、すなわちグラフニューラルネットワーク(GNN)が導入された。
これまでの研究では、機械学習モデルはプライバシー攻撃に弱いことが示されている。
本稿では,GNNに対するノードレベルメンバシップ推論攻撃の包括的解析を行う。
- 参考スコア(独自算出の注目度): 29.442045622210532
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many real-world data comes in the form of graphs, such as social networks and
protein structure. To fully utilize the information contained in graph data, a
new family of machine learning (ML) models, namely graph neural networks
(GNNs), has been introduced. Previous studies have shown that machine learning
models are vulnerable to privacy attacks. However, most of the current efforts
concentrate on ML models trained on data from the Euclidean space, like images
and texts. On the other hand, privacy risks stemming from GNNs remain largely
unstudied.
In this paper, we fill the gap by performing the first comprehensive analysis
of node-level membership inference attacks against GNNs. We systematically
define the threat models and propose three node-level membership inference
attacks based on an adversary's background knowledge. Our evaluation on three
GNN structures and four benchmark datasets shows that GNNs are vulnerable to
node-level membership inference even when the adversary has minimal background
knowledge. Besides, we show that graph density and feature similarity have a
major impact on the attack's success. We further investigate two defense
mechanisms and the empirical results indicate that these defenses can reduce
the attack performance but with moderate utility loss.
- Abstract(参考訳): 多くの実世界のデータには、ソーシャルネットワークやタンパク質構造といったグラフの形式がある。
グラフデータに含まれる情報を最大限に活用するために、新しい機械学習(ML)モデル、すなわちグラフニューラルネットワーク(GNNs)が導入された。
これまでの研究では、機械学習モデルはプライバシー攻撃に弱いことが示されている。
しかし、現在の取り組みのほとんどは、画像やテキストのようなユークリッド空間からのデータに基づいて訓練されたMLモデルに集中している。
一方、GNNが引き起こすプライバシーリスクはほとんど調査されていない。
本稿では,GNNに対するノードレベルのメンバシップ推論攻撃を総合的に解析し,ギャップを埋める。
我々は,脅威モデルを体系的に定義し,敵の背景知識に基づく3つのノードレベルのメンバーシップ推論攻撃を提案する。
3つのGNN構造と4つのベンチマークデータセットに対する評価は、GNNが最小のバックグラウンド知識を持つ場合でも、ノードレベルのメンバシップ推定に弱いことを示している。
さらに,グラフ密度と特徴類似性が攻撃の成功に大きな影響を与えることを示した。
さらに,2つの防御機構を検証した結果,攻撃性能は低下するが,有効性は低下することが示された。
関連論文リスト
- Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks [50.87615167799367]
グラフニューラルネットワーク(GNN)は、特定のグラフのノード特徴をターゲットとして、バックドアを含む有毒な攻撃に対して認証する。
コンボリューションベースのGNNとPageRankベースのGNNの最悪の動作におけるグラフ構造の役割とその接続性に関する基本的な知見を提供する。
論文 参考訳(メタデータ) (2024-07-15T16:12:51Z) - Graph Transductive Defense: a Two-Stage Defense for Graph Membership Inference Attacks [50.19590901147213]
グラフニューラルネットワーク(GNN)は、さまざまな現実世界のアプリケーションにおいて、強力なグラフ学習機能を提供する。
GNNは、メンバーシップ推論攻撃(MIA)を含む敵攻撃に対して脆弱である
本稿では,グラフトランスダクティブ学習特性に合わせて,グラフトランスダクティブ・ディフェンス(GTD)を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:36:37Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Property inference attack; Graph neural networks; Privacy attacks and
defense; Trustworthy machine learning [5.598383724295497]
機械学習モデルは、トレーニングデータに関する情報を漏洩するプライバシー攻撃に弱い。
本研究では,プロパティ推論攻撃(PIA)と呼ばれる,特定の種類のプライバシ攻撃に焦点を当てる。
我々は、グラフニューラルネットワーク(GNN)を対象モデルとし、トレーニンググラフ内の特定のノードとリンクの分布を目標特性とみなす。
論文 参考訳(メタデータ) (2022-09-02T14:59:37Z) - Adapting Membership Inference Attacks to GNN for Graph Classification:
Approaches and Implications [32.631077336656936]
グラフニューラルネットワーク(GNN)に対するメンバーシップ推論攻撃(MIA)は、深刻なプライバシー上の懸念を引き起こす。
グラフレベル分類のためのGNNに対するMIAの第一歩を踏み出します。
我々は、異なる敵の能力から、トレーニングベースの攻撃としきい値ベースの攻撃という2つのタイプの攻撃を提示し、実装する。
論文 参考訳(メタデータ) (2021-10-17T08:41:21Z) - Unveiling the potential of Graph Neural Networks for robust Intrusion
Detection [2.21481607673149]
本稿では,グラフとして構造化された攻撃の流れパターンを学習するための新しいグラフニューラルネットワーク(GNN)モデルを提案する。
我々のモデルは従来の実験と同等の精度を維持することができる一方、最先端のML技術は敵攻撃下で50%の精度(F1スコア)を低下させる。
論文 参考訳(メタデータ) (2021-07-30T16:56:39Z) - Structack: Structure-based Adversarial Attacks on Graph Neural Networks [1.795391652194214]
攻撃者はグラフ構造にのみアクセスできるが,ノード属性に関する情報は得られない。
構造に基づく非情報攻撃は情報攻撃の性能に近づき、計算効率が良くなることを示す。
Structackは、厳密な計算制約の下で動作しながら、非常に限られた情報でGNNの性能を操作できる。
論文 参考訳(メタデータ) (2021-07-23T16:17:10Z) - Membership Inference Attack on Graph Neural Networks [1.6457778420360536]
我々は、トレーニングされたGNNモデルが、トレーニングされたEmphmemberノードに関する情報を漏洩させる方法について焦点を当てる。
訓練されたモデルの後部を利用した最も単純な攻撃モデルを選択する。
意外で心配な事実は、ターゲットモデルがうまく一般化しても攻撃が成功することである。
論文 参考訳(メタデータ) (2021-01-17T02:12:35Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。